DIY-Agenten: Warum KI sich wieder wie PC-Basteln anfühlt
Von Soundblaster-Jumpern zu MCP-Servern – KI-Agenten zwischen Bastelspaß und Kostenkontrolle
06.05.2026 6 min
Zusammenfassung & Show Notes
In dieser Folge der KI Kantine geht es zurück in die 90er – zumindest gefühlt. Buschi vergleicht das Basteln an modernen KI-Agenten mit dem Schrauben an alten PCs: komplex, manchmal frustrierend, aber auch irgendwie faszinierend. Statt IRQ-Konflikten jongliert man heute mit Python-Umgebungen, Tools und Agent-Skills.
Außerdem schauen wir auf die unterschiedlichen Strategien der großen KI-Anbieter: minimalistische Ansätze, geschlossene Systeme und Plattform-Ökosysteme. Und wir klären, warum Standards wie MCP eine ähnliche Rolle spielen könnten wie USB damals.
Ein weiterer wichtiger Punkt: steigende Kosten für KI-Nutzung führen dazu, dass Do-it-yourself-Agenten wieder attraktiver werden – mit mehr Kontrolle, aber auch mehr Aufwand.
Außerdem schauen wir auf die unterschiedlichen Strategien der großen KI-Anbieter: minimalistische Ansätze, geschlossene Systeme und Plattform-Ökosysteme. Und wir klären, warum Standards wie MCP eine ähnliche Rolle spielen könnten wie USB damals.
Ein weiterer wichtiger Punkt: steigende Kosten für KI-Nutzung führen dazu, dass Do-it-yourself-Agenten wieder attraktiver werden – mit mehr Kontrolle, aber auch mehr Aufwand.
Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de
Alle Folgen & mehr: https://ki-kantine.letscast.fm/
Alle Folgen & mehr: https://ki-kantine.letscast.fm/
Transkript
(Transkribiert von TurboScribe. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit!
Mahlzeit!
Sag mal, du hast doch in den 90ern
auch deine Computer selber zusammengeschraubt, oder?
Jo, anfangs schon.
Später habe ich sie dann beim Aldi gekauft.
Kannst du dich noch erinnern, wenn man da
seine Soundblaster-Karte in den 486er eingebaut hat
und irgendwelche Jumper auf der Platine umstellen musste
und die IR-Cues musste man zuweisen und
man hat ständig Angst gehabt, dass es irgendwelche
Interrupt-Konflikte gibt zwischen der LPT-1 und
der Soundkarte und so weiter.
Und dann hast du den ganzen Tag in
der Autoexec-Butt und in der Config-Sys
rumgespielt.
Das hat echt Laune gemacht, also mir zumindest
damals.
Und so ähnlich empfinde ich das heute auch
wieder, allerdings mit ein bisschen weniger Laune dabei,
wenn man so ein OpenCore neu aufsetzt oder
generell Agenten neu einrichtet.
Da musst du auch wieder ganz komplexe Abhängigkeiten
und isolierte Umgebungen betrachten und wir basteln wieder
an der Kontrolle über eine Technologie.
Die ist aber eigentlich jetzt gerade dieser Plug
-and-Play-Reife gewesen, was die PCs betrifft.
Jetzt fangen wir wieder von vorne an.
Denn wenn du früher so mit QEMM, wenn
du dich noch daran erinnerst, das Conventional Memory
irgendwie versucht hast freizuschaufeln, so musst du heute
eben jonglieren mit irgendwelchen Python-Umgebungen oder Node
.js oder irgendwelchen Binär-Dateien oder Web-Automatisierung.
Interessant.
Heute versuchst du halt deinen Harness, wir haben
ja letztens drüber geredet, deinen Harness willst du
organisieren und optimieren.
Und dazu nutzt du halt dann irgendwelche Tools
und irgendwelche Skills.
Also wenn du so willst, sind die Tools
ja die Organe des Agenten, also physische Fähigkeiten
wie das Ausführen von Befehlen oder so ein
Webfetch.
Und Skills sind eigentlich mehr so Lehrbücher, also
diese Markdown-Dateien, haben wir auch schon drüber
gesprochen, sowas wie Soul oder Agents.
Und die enthalten halt Wissen, wie man diese
Tools für spezifische Aufgaben einsetzt.
Und wenn die mal sauber ineinander greifen, dann
fühlst du dich so ähnlich an, wie wenn
du früher ein Spiel oder sowas gestartet hast.
Und es hat auch wirklich gestartet, nachdem du
mit dem Speichern rumgeschraubt hast.
Und es kam so ein Begrüßungsscreen, das war
früher schon ein richtig cooles Gefühl.
Und so ein bisschen ist es heute dann
bei den Agenten dann auch der Fall.
Und wie damals, als Intel gegen AMD gekämpft
hat, aber auch du verschiedene Soundkarten, Grafikkarten und
so weiter hattest, so gibt es heute auch
unterschiedliche Strategieansätze, die von den großen Dreien propagiert
werden.
Also Anthropic propagiert eigentlich so eine Minimal Footprint
Principle.
Also die Agenten sollen nur die Rechte erhalten,
die sie zwingend benötigen, wobei die den Hauptfokus
auf offene MCP-Standards legen.
Und wiederum setzt sie irgendwie mit dem Operator
auf maximale vertikale Integration.
Da geht es also eher so um Reasoning
in so einem geschlossenen Ökosystem.
Google, die positionieren sich mit ihrem Project Mariner,
so als ultimativer Plattform-Integrator.
Interessanterweise konzentrieren sich halt Anthropic und eigentlich auch
OpenAI mit MCP auf diesen universellen Stecker.
Und Google hat ja ein eigenes Format, das
A2A, Agent-to-Agent-Protokoll.
Die wollen den eigenen Standard damit durchsetzen, um
die Kommunikation zwischen den spezialisierten Agenten irgendwie auszugleichen.
Aha.
Und dadurch, dass diese ganzen Tokens ja immer
teurer werden, weil die ganzen Provider merken, unsere
Rechenzentren sind so ausgelastet, wir müssen einfach an
der Preisschraube drehen, hast du immer mehr Motivation
eigentlich, hier ein bisschen Do-it-yourself-Agenten
wiederzumachen, wo du steuerst, welche KI wird denn
für was benutzt.
Und wenn du jetzt zum Beispiel dieses neue
Cloud-Managed Agents betrachtest, es sind Agenten, die
werden von Cloud gemanagt, die laufen also gar
nicht mehr bei dir auf dem Rechner, sondern
bei denen und greifen halt durch auf deinen
Rechner, wenn du das willst.
Und die hast du nicht mehr inklusive bei
deinem 20-Dollar-Abo oder bei deinem 100
-Dollar-Abo, sondern das wird nur noch bezahlt
nach Nutzung, also pay-as-you-go.
Und dann möchtest du natürlich an deinem Agent
so rumbasteln, dass der so effizient wie möglich
ist, weil du keinen Flatrate mehr hast.
Du musst dann jetzt drauf aufpassen.
Aha.
Als es ja früher beim PC-Basteln so
einen Wildwuchs gab, weil du ja tausend Steckplätze
brauchtest, weil jeder eine eigene Lösung hatte, hat
man sich irgendwann gefreut, dass es jetzt USB
gibt, also eine universelle serielle Schnittstelle.
Und das hat man heute halt mit dem
MCP.
Deshalb ist dieses Bild, dass der USB für
die KI ist, ein schlaugewähltes Bild.
Denn auch das ist eine standardisierte Verbindung zwischen
KI-Modellen und Datenquellen.
Du musst halt nicht mehr für jede Kombination
aus Modell und Tool eine eigene Integration schreiben,
sondern du gibst der KI nur einmal den
Zugang zu einem MCP-Server, welchen du auch
immer willst, und ermöglichst damit so eine Many
-to-Many-Connection.
Du kannst dann das Modell eigentlich von der
Dateninfrastruktur entkoppeln.
Bei Googles A2A-Protokoll wird sich darauf konzentriert,
wie die KI-Agenten untereinander miteinander sprechen.
MCP löst halt eben das Problem, wie die
Agenten überhaupt auf die Welt zugreifen können.
Also ich würde jetzt am liebsten mal auf
meine Pizza zugreifen.
Können wir jetzt in Limo essen?
Das ist die KI-Kantine.
Wir sitzen in der KI-Kantine.
Die KI-Kantine ist ein Projekt von Michael
Busch, der auch beim nächsten Mal wieder ein
frisches KI-Gericht auftischt mit einer Prise Ponz
und einer Beilage Skepsis.
Wir sitzen in der KI-Kantine.
Hier ist die KI-Kantine.