Die KI Kantine - Der Podcast

Michael Busch

DIY-Agenten: Warum KI sich wieder wie PC-Basteln anfühlt

Von Soundblaster-Jumpern zu MCP-Servern – KI-Agenten zwischen Bastelspaß und Kostenkontrolle

06.05.2026 6 min

Zusammenfassung & Show Notes

In dieser Folge der KI Kantine geht es zurück in die 90er – zumindest gefühlt. Buschi vergleicht das Basteln an modernen KI-Agenten mit dem Schrauben an alten PCs: komplex, manchmal frustrierend, aber auch irgendwie faszinierend. Statt IRQ-Konflikten jongliert man heute mit Python-Umgebungen, Tools und Agent-Skills.
Außerdem schauen wir auf die unterschiedlichen Strategien der großen KI-Anbieter: minimalistische Ansätze, geschlossene Systeme und Plattform-Ökosysteme. Und wir klären, warum Standards wie MCP eine ähnliche Rolle spielen könnten wie USB damals.
Ein weiterer wichtiger Punkt: steigende Kosten für KI-Nutzung führen dazu, dass Do-it-yourself-Agenten wieder attraktiver werden – mit mehr Kontrolle, aber auch mehr Aufwand. 

Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.

Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.

Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.

📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de

Alle Folgen & mehr: https://ki-kantine.letscast.fm/

Transkript

(Transkribiert von TurboScribe. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit! Mahlzeit! Sag mal, du hast doch in den 90ern auch deine Computer selber zusammengeschraubt, oder? Jo, anfangs schon. Später habe ich sie dann beim Aldi gekauft. Kannst du dich noch erinnern, wenn man da seine Soundblaster-Karte in den 486er eingebaut hat und irgendwelche Jumper auf der Platine umstellen musste und die IR-Cues musste man zuweisen und man hat ständig Angst gehabt, dass es irgendwelche Interrupt-Konflikte gibt zwischen der LPT-1 und der Soundkarte und so weiter. Und dann hast du den ganzen Tag in der Autoexec-Butt und in der Config-Sys rumgespielt. Das hat echt Laune gemacht, also mir zumindest damals. Und so ähnlich empfinde ich das heute auch wieder, allerdings mit ein bisschen weniger Laune dabei, wenn man so ein OpenCore neu aufsetzt oder generell Agenten neu einrichtet. Da musst du auch wieder ganz komplexe Abhängigkeiten und isolierte Umgebungen betrachten und wir basteln wieder an der Kontrolle über eine Technologie. Die ist aber eigentlich jetzt gerade dieser Plug -and-Play-Reife gewesen, was die PCs betrifft. Jetzt fangen wir wieder von vorne an. Denn wenn du früher so mit QEMM, wenn du dich noch daran erinnerst, das Conventional Memory irgendwie versucht hast freizuschaufeln, so musst du heute eben jonglieren mit irgendwelchen Python-Umgebungen oder Node .js oder irgendwelchen Binär-Dateien oder Web-Automatisierung. Interessant. Heute versuchst du halt deinen Harness, wir haben ja letztens drüber geredet, deinen Harness willst du organisieren und optimieren. Und dazu nutzt du halt dann irgendwelche Tools und irgendwelche Skills. Also wenn du so willst, sind die Tools ja die Organe des Agenten, also physische Fähigkeiten wie das Ausführen von Befehlen oder so ein Webfetch. Und Skills sind eigentlich mehr so Lehrbücher, also diese Markdown-Dateien, haben wir auch schon drüber gesprochen, sowas wie Soul oder Agents. Und die enthalten halt Wissen, wie man diese Tools für spezifische Aufgaben einsetzt. Und wenn die mal sauber ineinander greifen, dann fühlst du dich so ähnlich an, wie wenn du früher ein Spiel oder sowas gestartet hast. Und es hat auch wirklich gestartet, nachdem du mit dem Speichern rumgeschraubt hast. Und es kam so ein Begrüßungsscreen, das war früher schon ein richtig cooles Gefühl. Und so ein bisschen ist es heute dann bei den Agenten dann auch der Fall. Und wie damals, als Intel gegen AMD gekämpft hat, aber auch du verschiedene Soundkarten, Grafikkarten und so weiter hattest, so gibt es heute auch unterschiedliche Strategieansätze, die von den großen Dreien propagiert werden. Also Anthropic propagiert eigentlich so eine Minimal Footprint Principle. Also die Agenten sollen nur die Rechte erhalten, die sie zwingend benötigen, wobei die den Hauptfokus auf offene MCP-Standards legen. Und wiederum setzt sie irgendwie mit dem Operator auf maximale vertikale Integration. Da geht es also eher so um Reasoning in so einem geschlossenen Ökosystem. Google, die positionieren sich mit ihrem Project Mariner, so als ultimativer Plattform-Integrator. Interessanterweise konzentrieren sich halt Anthropic und eigentlich auch OpenAI mit MCP auf diesen universellen Stecker. Und Google hat ja ein eigenes Format, das A2A, Agent-to-Agent-Protokoll. Die wollen den eigenen Standard damit durchsetzen, um die Kommunikation zwischen den spezialisierten Agenten irgendwie auszugleichen. Aha. Und dadurch, dass diese ganzen Tokens ja immer teurer werden, weil die ganzen Provider merken, unsere Rechenzentren sind so ausgelastet, wir müssen einfach an der Preisschraube drehen, hast du immer mehr Motivation eigentlich, hier ein bisschen Do-it-yourself-Agenten wiederzumachen, wo du steuerst, welche KI wird denn für was benutzt. Und wenn du jetzt zum Beispiel dieses neue Cloud-Managed Agents betrachtest, es sind Agenten, die werden von Cloud gemanagt, die laufen also gar nicht mehr bei dir auf dem Rechner, sondern bei denen und greifen halt durch auf deinen Rechner, wenn du das willst. Und die hast du nicht mehr inklusive bei deinem 20-Dollar-Abo oder bei deinem 100 -Dollar-Abo, sondern das wird nur noch bezahlt nach Nutzung, also pay-as-you-go. Und dann möchtest du natürlich an deinem Agent so rumbasteln, dass der so effizient wie möglich ist, weil du keinen Flatrate mehr hast. Du musst dann jetzt drauf aufpassen. Aha. Als es ja früher beim PC-Basteln so einen Wildwuchs gab, weil du ja tausend Steckplätze brauchtest, weil jeder eine eigene Lösung hatte, hat man sich irgendwann gefreut, dass es jetzt USB gibt, also eine universelle serielle Schnittstelle. Und das hat man heute halt mit dem MCP. Deshalb ist dieses Bild, dass der USB für die KI ist, ein schlaugewähltes Bild. Denn auch das ist eine standardisierte Verbindung zwischen KI-Modellen und Datenquellen. Du musst halt nicht mehr für jede Kombination aus Modell und Tool eine eigene Integration schreiben, sondern du gibst der KI nur einmal den Zugang zu einem MCP-Server, welchen du auch immer willst, und ermöglichst damit so eine Many -to-Many-Connection. Du kannst dann das Modell eigentlich von der Dateninfrastruktur entkoppeln. Bei Googles A2A-Protokoll wird sich darauf konzentriert, wie die KI-Agenten untereinander miteinander sprechen. MCP löst halt eben das Problem, wie die Agenten überhaupt auf die Welt zugreifen können. Also ich würde jetzt am liebsten mal auf meine Pizza zugreifen. Können wir jetzt in Limo essen? Das ist die KI-Kantine. Wir sitzen in der KI-Kantine. Die KI-Kantine ist ein Projekt von Michael Busch, der auch beim nächsten Mal wieder ein frisches KI-Gericht auftischt mit einer Prise Ponz und einer Beilage Skepsis. Wir sitzen in der KI-Kantine. Hier ist die KI-Kantine.