Harness Engineering – Warum KI jetzt Hände braucht
Vom Prompt zur Orchestrierung: Wie aus Modellen funktionierende Systeme werden
22.04.2026 6 min
Zusammenfassung & Show Notes
In dieser Folge der KI Kantine geht es um das nächste große Buzzword nach Prompt- und Context-Engineering: Harness Engineering. Buschi erklärt, warum moderne KI-Systeme nicht mehr an mangelnder Intelligenz scheitern, sondern an fehlender Struktur und Handlungsfähigkeit. Es geht um die Architektur hinter funktionierenden KI-Workflows – bestehend aus Tools, Schnittstellen, Memory und Feedback-Schleifen. Anhand konkreter Beispiele zeigt die Folge, warum künftig nicht das beste Modell gewinnt, sondern das effizienteste System drumherum – und warum dieses „Harness“ ständig weiterentwickelt werden muss.
Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de
Alle Folgen & mehr: https://ki-kantine.letscast.fm/
Alle Folgen & mehr: https://ki-kantine.letscast.fm/
Transkript
(Transkribiert von TurboScribe. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit!
Mahlzeit!
Sag mal, hast du schon mal was von
Harness Engineering gehört?
Ist es, wenn man an seinem Motorrad rumschraubt?
Äh, was?
Nee, nicht Harley's Engineering, sondern Harness Engineering.
Harness ist sowas wie ein Geschirr beim Pferd
- oder beim Hunderennen, also ein Hundegeschirr.
Das ist so das neue Buzzword, was man
überall hört.
Zuerst hatten wir Vibe-Coding, dann hatten wir
Prompt-Engineering, weil man gemerkt hat, okay, man
muss an Prompt arbeiten, damit das Vibe-Coding
besser wird.
Dann hat man gemerkt, oh, Prompt allein reicht
auch noch nicht.
Dann gab es Context-Engineering, das war also
dann noch mehr Informationen, mehr MD-Files.
Und jetzt ist die nächste Stufe halt Harness
-Engineering.
Aha.
Man hat nämlich gemerkt, dass selbst die modernsten
Reasoning-Modelle, so wie Cloud Opus oder irgendwelche
spezialisierten Agenten-Frameworks, gar nicht an der mangelnden
Intelligenz mehr scheitern, sondern an der mangelnden Handlungsfähigkeit.
Man hat also gemerkt, dass das tollste Gehirn
eigentlich nichts wert ist, wenn man nicht ein
präzises Set an Händen hat, eine Architektur aus
Werkzeugen, Schnittstellen und Feedback-Schleifen.
Man kann sich also mittlerweile nicht mehr nur
darauf beschränken, zu hoffen, dass die Modelle immer
besser und stärker werden, sondern man muss auch
noch so eine Umgebung schaffen, die das unterstützt
und im Zweifel sogar korrigiert oder kontrolliert.
In dem Bild mit dem Gehirn und den
Händen ist dieses Harness nämlich die Hand.
Das ist die Schicht, die die Komponenten verbindet,
schützt und orchestriert, aber die eigentliche kognitive Arbeit
leistet es nicht.
Wir haben alle schon ein sehr, sehr bekanntes
Harness kennengelernt, nämlich OpenClaw.
Das ist ja auch eine Kombination von ganz
vielen, ich nenne es jetzt mal Programmen, die
miteinander arbeiten.
Die eigentliche KI, das LLM, ist sekundär.
Da kannst du ja alles Mögliche mit verbinden.
Die große Kunst ist bei OpenClaw, das zu
orchestrieren.
Bei so einem Harness oder beim Harness Engineering
geht es darum, die Agenten zu bändigen, dass
sie in der Umgebung, in der sie sich
befinden, verlässlich agieren.
Und dafür gibt es eben Stellschrauben, über die
haben wir auch schon fast komplett geredet.
Das sind einmal die Skills, also die definierenden
Fähigkeiten, die über einfache API-Codes hinausgehen.
Du hast die MCP-Server, das ist also
ein standardisierter Austausch von Daten und Werkzeugen.
Du hast das Memory, Erinnerungen an das, was
in der Vergangenheit schon gelaufen ist.
Und du hast noch zusätzliche Markdown-Files, die
eine strukturierte Dokumentation erstellen, die also so etwas
wie das Navigationssystem des Agenten sind.
Du kannst die Komplexität von so einem Harness
eigentlich so in drei Schichten, in drei funktionale
Schichten unterteilen.
Das ist einmal so der Information Layer.
Das ist eine Schicht, die das Gedächtnis und
den Kontext steuert.
Und hier geht es halt darum, dass nur
die wichtigen Informationen dem Agenten gegeben werden und
nicht das Kontextfenster unnötig belastet wird.
Und dann gibt es den Execution Layer.
Dort wird die Orchestrierung quasi vorgenommen.
Also die Schicht regelt, wie die Aufgaben zerlegt
werden und welcher Agent mit wem kollaboriert und
wessen Daten wohin weitergeleitet werden.
Auch wichtig dabei, was soll denn passieren, wenn
ein Fehler auftritt?
Was gibt es also für Recovery-Mechanismen?
Und zusätzlich dazu kommen auch diese sogenannten Guardrails,
die also den Handlungsspielraum begrenzen.
Die dritte Schicht, das ist der Feedback Layer.
Und in dem Bereich wird halt evaluiert und
verifiziert.
Und hier werden auch das Gelernte in Wissen
transformiert.
Also hier werden dann nochmal MD-Files aktualisiert,
damit das System eben kontinuierlich besser wird.
Und es ist ganz interessant, wenn man sich
die Softwareprodukte alle anschaut, dann sprechen die Fachleute
von einer großen Konvergenz.
Denn scheinen alle das gleiche Produkt zu entwickeln.
Und das ist aber kein Zeichen von mangelnder
Kreativität, sondern eben das Ergebnis dieses Harness-Gedankens.
Fast jede moderne KI-Architektur folgt derselben Schleife.
Es gibt einen User-Input, der trifft auf
Context-Engineering, wird dann an das Modell gereicht.
Das Modell benutzt irgendwelche Tools, die wiederum neuen
Kontext generieren.
Und dieser Loop läuft so lange, bis das
Ziel erreicht ist.
Und da sieht man, dass eben der Gewinner
künftig nicht mehr die Firma mit dem exklusivsten
Zugriff oder dem mächtigsten Modell ist, sondern der
effizienteste Workflow ist entscheidend.
Oder der kürzeste Pfad von der Beobachtung zur
Verbesserung.
Man spricht ja nun von Harness-Engineering.
Das heißt, das Harness muss immer wieder umgebaut
werden und angepasst werden.
Denn es ist von der Natur aus ja
eigentlich vergänglich.
Also wenn du mal so ein Beispiel siehst.
Es gab mal eine Zeit bei Klotz und
E45, das nie hieß Context-Anxiety.
Angst, Kontextangst.
Das Modell begann nämlich Aufgaben vorzeitig abzubrechen, weil
es das nahe Ende des Kontextfensters spürte.
Und da hat das Harness eben ein Kontext
-Reset gemacht.
Dadurch bestand diese Angst nicht mehr für das
Klotz-Annetto.
Deshalb ging es immer weiter.
Im Klotz-Opus 4.5, da braucht man
diesen Fix schon gar nicht mehr, weil das
neue Modell hatte das Nativ schon viel besser
im Griff.
Ich wünschte, ich hätte meinen Hummer so gut
im Griff.
Können wir jetzt in Limon essen?
Die KI-Kantine ist ein Projekt von Michael
Busch, der auch beim nächsten Mal wieder ein
frisches KI-Gericht auftischt mit einer Prise Ponz
und einer Beilage Skepsis.