Die KI Kantine - Der Podcast

Michael Busch

Harness Engineering – Warum KI jetzt Hände braucht

Vom Prompt zur Orchestrierung: Wie aus Modellen funktionierende Systeme werden

22.04.2026 6 min

Zusammenfassung & Show Notes

In dieser Folge der KI Kantine geht es um das nächste große Buzzword nach Prompt- und Context-Engineering: Harness Engineering. Buschi erklärt, warum moderne KI-Systeme nicht mehr an mangelnder Intelligenz scheitern, sondern an fehlender Struktur und Handlungsfähigkeit. Es geht um die Architektur hinter funktionierenden KI-Workflows – bestehend aus Tools, Schnittstellen, Memory und Feedback-Schleifen. Anhand konkreter Beispiele zeigt die Folge, warum künftig nicht das beste Modell gewinnt, sondern das effizienteste System drumherum – und warum dieses „Harness“ ständig weiterentwickelt werden muss. 

Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.

Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.

Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.

📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de

Alle Folgen & mehr: https://ki-kantine.letscast.fm/

Transkript

(Transkribiert von TurboScribe. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit! Mahlzeit! Sag mal, hast du schon mal was von Harness Engineering gehört? Ist es, wenn man an seinem Motorrad rumschraubt? Äh, was? Nee, nicht Harley's Engineering, sondern Harness Engineering. Harness ist sowas wie ein Geschirr beim Pferd - oder beim Hunderennen, also ein Hundegeschirr. Das ist so das neue Buzzword, was man überall hört. Zuerst hatten wir Vibe-Coding, dann hatten wir Prompt-Engineering, weil man gemerkt hat, okay, man muss an Prompt arbeiten, damit das Vibe-Coding besser wird. Dann hat man gemerkt, oh, Prompt allein reicht auch noch nicht. Dann gab es Context-Engineering, das war also dann noch mehr Informationen, mehr MD-Files. Und jetzt ist die nächste Stufe halt Harness -Engineering. Aha. Man hat nämlich gemerkt, dass selbst die modernsten Reasoning-Modelle, so wie Cloud Opus oder irgendwelche spezialisierten Agenten-Frameworks, gar nicht an der mangelnden Intelligenz mehr scheitern, sondern an der mangelnden Handlungsfähigkeit. Man hat also gemerkt, dass das tollste Gehirn eigentlich nichts wert ist, wenn man nicht ein präzises Set an Händen hat, eine Architektur aus Werkzeugen, Schnittstellen und Feedback-Schleifen. Man kann sich also mittlerweile nicht mehr nur darauf beschränken, zu hoffen, dass die Modelle immer besser und stärker werden, sondern man muss auch noch so eine Umgebung schaffen, die das unterstützt und im Zweifel sogar korrigiert oder kontrolliert. In dem Bild mit dem Gehirn und den Händen ist dieses Harness nämlich die Hand. Das ist die Schicht, die die Komponenten verbindet, schützt und orchestriert, aber die eigentliche kognitive Arbeit leistet es nicht. Wir haben alle schon ein sehr, sehr bekanntes Harness kennengelernt, nämlich OpenClaw. Das ist ja auch eine Kombination von ganz vielen, ich nenne es jetzt mal Programmen, die miteinander arbeiten. Die eigentliche KI, das LLM, ist sekundär. Da kannst du ja alles Mögliche mit verbinden. Die große Kunst ist bei OpenClaw, das zu orchestrieren. Bei so einem Harness oder beim Harness Engineering geht es darum, die Agenten zu bändigen, dass sie in der Umgebung, in der sie sich befinden, verlässlich agieren. Und dafür gibt es eben Stellschrauben, über die haben wir auch schon fast komplett geredet. Das sind einmal die Skills, also die definierenden Fähigkeiten, die über einfache API-Codes hinausgehen. Du hast die MCP-Server, das ist also ein standardisierter Austausch von Daten und Werkzeugen. Du hast das Memory, Erinnerungen an das, was in der Vergangenheit schon gelaufen ist. Und du hast noch zusätzliche Markdown-Files, die eine strukturierte Dokumentation erstellen, die also so etwas wie das Navigationssystem des Agenten sind. Du kannst die Komplexität von so einem Harness eigentlich so in drei Schichten, in drei funktionale Schichten unterteilen. Das ist einmal so der Information Layer. Das ist eine Schicht, die das Gedächtnis und den Kontext steuert. Und hier geht es halt darum, dass nur die wichtigen Informationen dem Agenten gegeben werden und nicht das Kontextfenster unnötig belastet wird. Und dann gibt es den Execution Layer. Dort wird die Orchestrierung quasi vorgenommen. Also die Schicht regelt, wie die Aufgaben zerlegt werden und welcher Agent mit wem kollaboriert und wessen Daten wohin weitergeleitet werden. Auch wichtig dabei, was soll denn passieren, wenn ein Fehler auftritt? Was gibt es also für Recovery-Mechanismen? Und zusätzlich dazu kommen auch diese sogenannten Guardrails, die also den Handlungsspielraum begrenzen. Die dritte Schicht, das ist der Feedback Layer. Und in dem Bereich wird halt evaluiert und verifiziert. Und hier werden auch das Gelernte in Wissen transformiert. Also hier werden dann nochmal MD-Files aktualisiert, damit das System eben kontinuierlich besser wird. Und es ist ganz interessant, wenn man sich die Softwareprodukte alle anschaut, dann sprechen die Fachleute von einer großen Konvergenz. Denn scheinen alle das gleiche Produkt zu entwickeln. Und das ist aber kein Zeichen von mangelnder Kreativität, sondern eben das Ergebnis dieses Harness-Gedankens. Fast jede moderne KI-Architektur folgt derselben Schleife. Es gibt einen User-Input, der trifft auf Context-Engineering, wird dann an das Modell gereicht. Das Modell benutzt irgendwelche Tools, die wiederum neuen Kontext generieren. Und dieser Loop läuft so lange, bis das Ziel erreicht ist. Und da sieht man, dass eben der Gewinner künftig nicht mehr die Firma mit dem exklusivsten Zugriff oder dem mächtigsten Modell ist, sondern der effizienteste Workflow ist entscheidend. Oder der kürzeste Pfad von der Beobachtung zur Verbesserung. Man spricht ja nun von Harness-Engineering. Das heißt, das Harness muss immer wieder umgebaut werden und angepasst werden. Denn es ist von der Natur aus ja eigentlich vergänglich. Also wenn du mal so ein Beispiel siehst. Es gab mal eine Zeit bei Klotz und E45, das nie hieß Context-Anxiety. Angst, Kontextangst. Das Modell begann nämlich Aufgaben vorzeitig abzubrechen, weil es das nahe Ende des Kontextfensters spürte. Und da hat das Harness eben ein Kontext -Reset gemacht. Dadurch bestand diese Angst nicht mehr für das Klotz-Annetto. Deshalb ging es immer weiter. Im Klotz-Opus 4.5, da braucht man diesen Fix schon gar nicht mehr, weil das neue Modell hatte das Nativ schon viel besser im Griff. Ich wünschte, ich hätte meinen Hummer so gut im Griff. Können wir jetzt in Limon essen? Die KI-Kantine ist ein Projekt von Michael Busch, der auch beim nächsten Mal wieder ein frisches KI-Gericht auftischt mit einer Prise Ponz und einer Beilage Skepsis.