Pentagon vs. Anthropic – Wenn KI-Ethik auf Militärlogik trifft
Warum eine einfache Nachfrage eines KI-Labors einen offenen Konflikt mit dem Pentagon ausgelöst hat – und was dieser Streit über die Zukunft militärischer KI verrät.
11.03.2026 7 min
Zusammenfassung & Show Notes
In dieser Folge der KI Kantine erzählt Buschi von einem ungewöhnlichen Konflikt zwischen dem KI-Unternehmen Anthropic und dem US-Verteidigungsministerium. Ausgelöst durch eine scheinbar harmlose Nachfrage zur Nutzung des Sprachmodells Claude in einer Militäraktion, entwickelte sich ein Streit über Kontrolle, Verantwortung und Ethik beim Einsatz von KI.
Das Pentagon reagierte drastisch und stufte Anthropic plötzlich als Risiko in der Lieferkette ein – eine Kategorie, die normalerweise für geopolitische Rivalen reserviert ist. Gleichzeitig nutzt das Militär die Technologie weiterhin und erwägt sogar gesetzliche Maßnahmen, um die Zusammenarbeit zu erzwingen.
Buschi erklärt, warum hinter diesem Konflikt ein tiefer Kulturunterschied steckt: Das Militär betrachtet KI als Werkzeug wie jedes andere Rüstungsgut, während KI-Labore ihre Systeme eher als verantwortungspflichtigen Service sehen. Außerdem wird deutlich, welche Rolle KI aktuell tatsächlich im Militär spielt – und warum Sprachmodelle noch weit davon entfernt sind, autonome Waffen zu steuern.
Am Ende bleibt eine offene Frage: Gefährdet ein solcher Konflikt zwischen Staat und Tech-Industrie langfristig die Innovationskraft, auf die moderne Militärtechnologie angewiesen ist?
Die KI-Kantine ist ein Projekt von Michael Busch – Entwickler, Unternehmer und neugieriger Kantinenphilosoph.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
Hier geht’s regelmäßig zur Mittagspause um Künstliche Intelligenz im echten Entwickleralltag – verständlich, praxisnah und mit einer Prise Skepsis.
Neue Folgen erscheinen regelmäßig – meistens genau dann, wenn du dir eh gerade ein Tablett schnappst.
📬 Fragen, Feedback oder eigene KI-Erlebnisse? Schreib mir an podcast@ki-kantine.de
Alle Folgen & mehr: https://ki-kantine.letscast.fm/
Alle Folgen & mehr: https://ki-kantine.letscast.fm/
Transkript
(Transkribiert von TurboScribe. Upgrade auf Unbegrenzt, um diese Nachricht zu entfernen.) Mahlzeit.
Sag mal, hast du von dem Streit zwischen
Anthropic und dem Pentagon mitbekommen?
Nö, das hab ich nicht wirklich.
Anthropic, also die Firma hinter Claude und das
Verteidigungsministerium, waren eigentlich Partner im Entwickeln von Techniken,
die man in der Kriegsführung braucht.
Und eigentlich war sogar Anthropic das eines der
wenigen KI-Labore, das überhaupt bereit war, mit
dem Militär zusammenzuarbeiten.
Also auch an Projekten, die im Bereich der
nationalen Sicherheit laufen.
Und jetzt hat das Pentagon die Firma praktisch
auf eine schwarze Liste gesetzt.
Die Begründung ist, dass Anthropic ein Supply Chain
Risk ist, also ein Risiko in der Lieferkette.
Und in diese Kategorie fallen eigentlich nur so
Firmen, die Gefahr versprühen, dass sie Hintertürchen einbauen
in die Software oder halt von fremden Mächten,
wie China unterstützt wird.
Huawei war zum Beispiel so eine Firma, die
auf diese Liste kam.
Und jetzt ist es plötzlich so ein amerikanisches
KI-Startup.
Aha.
Und wie man so hört, ist der Auslöser
dafür eigentlich ziemlich banal.
Als die Amerikaner in Venezuela den Machthaber Maduro
gefangen genommen haben.
Da hat ein Mitarbeiter von Anthropic bei Palantir
angerufen und hat gesagt, sag mal, wird unser
Modell Claude eigentlich für diese Operation verwendet?
Das ist jetzt gar nicht so eine streng
geheime Nachfrage, immerhin arbeiten die ja zusammen.
Aber aus der Sicht des Militärs war es
ein Tabubruch.
In dem militärischen Denken hat so ein Zulieferer
einfach keine Fragen zu stellen.
Der soll liefern und fertig.
Und die Idee, dass so ein privates Unternehmen
wissen möchte, wie seine Technologie in der Operation
eingesetzt wird, gilt wohl als Vertrauensbruch.
Da sieht man eigentlich schon ganz gut, wie
unterschiedlich doch die Kulturen sind.
Im Silicon Valley denkt man eher, Technologien hat
Konsequenzen, also wollen wir mal wissen, wie sie
eingesetzt wird.
Und im Militär denkt man, wenn etwas rechtlich
erlaubt ist, entscheidet der Staat selber, nicht der
Hersteller.
Und als Reaktion wird jetzt Anthropic als Sicherheitsrisiko
eingestuft.
Das Absurde an der ganzen Geschichte ist, dass
sie natürlich weiterhin das nutzen wollen.
Denn gerade im Iran ist es ein Tool,
das seinen Einsatz findet.
Interessant.
Und jetzt hat das Militär gesagt, also das
Pentagon gesagt, wir benötigen jetzt sechs Monate, um
quasi Cloth überall raus zu operieren.
Aber wenn das schon so ein großes Sicherheitsrisiko
ist, wieso kann man sich dann jetzt noch
sechs Monate erlauben?
Hinter dem ganzen steckt so ein viel tieferer
Konflikt.
Denn das Pentagon betrachtet KI so eher als
Hardware, also so ähnlich wie ein Flugzeug oder
Rakete.
Wenn Lockheed Martin eine F-35 liefert, dann
entscheidet der Staat ja nun alleine, wie er
das einsetzt.
Und Lockheed Martin wird sich schön zurückhalten, um
zu sagen, ja, aber die und die und
die Länder sollst du damit nicht angreifen.
Natürlich hat so eine Firma nach dem Verkauf
kein Mitsprachrecht.
Aber Anthropx sieht natürlich die KI eher als
ein Service.
Weil diese Modelle werden ja auch ständig weiterentwickelt
durch die Lernweite, sie verändern sich und reagieren
halt auf Daten.
Und deshalb sagen die, wir wollen so gewisse
Leitplanken.
Zum Beispiel wollen wir keine Massenüberwachung an amerikanische
Staatsbürgern.
Und wir wollen auch nicht, dass unsere KI
in autonomen Kampfmaschinen, Raketen oder was auch immer
eingesetzt wird.
Aber für das Militär wirkt das natürlich wie
ein Angriff auf die eigene Souveränität.
Aha.
Dort ist die Logik, solange etwas legal ist,
darf es auch eingesetzt werden.
Und irgendein Lieferant hat da ganz sicher nicht
mitzubestimmen, was ethisch ist.
Wir haben aber natürlich auch in der Vergangenheit
jetzt schon erlebt, wie schnell etwas legal wird,
auch wenn es vorher nicht legal war.
Die Argumentation finde ich schon ein bisschen schwach,
lesen die keine eigenen Zeitungen in Amerika.
Aber was in der öffentlichen Debatte auch völlig
durcheinander geht, ist, dass diese Sprachmodelle überhaupt keine
Drohnen oder Panzer oder irgendwas steuern.
Es gab noch überhaupt keinen Einsatz in irgendetwas,
was diese Leitplanken überhaupt nur berührt hätten.
Man redet also hier über einen hypothetischen Fall.
In den Tools, die die nutzen, das ist
zum Beispiel Marvin heißt es, das ist das
von Palantir, die Oberfläche, die werden für Entscheidungshilfen
eingesetzt.
Also da filtert die KI nur riesige Datenmengen,
Satellitenbilder, Funksignale, Nachrichtenströme oder sowas.
Und versucht dann, Analysen zu machen und Muster
zu erkennen.
Und bevor die sowas in ein autonomes Waffensystem
einbauen, müssen auch viele, viele Tests gemacht werden
und so weiter.
Das ist ja auch ein Beamterapparat.
Jetzt denkst du, wie viele Zwischenschritte es da
gibt.
Wir kennen das ja, die Bürokratie auch in
Deutschland.
Deshalb gibt es natürlich auch die Überlegung, hat
das Anthropic einfach nur aus Marketinggründen so an
die große Glocke gehängt.
Denn was tatsächlich passiert ist, die sind aufgrund
ihrer ablehnenden Haltung sehr positiv aufgenommen worden von
der Gemeinschaft und haben dann sich im Ranking
der genutzten Apps ziemlich weit nach oben gekämpft.
Ich könnte mir natürlich auch vorstellen, dass die
sich jetzt schon absichern wollen, falls dann doch
mal irgendeine KI-Entscheidung getroffen wird, die sich
fatal auswirkt.
Dann können sie immer sagen, hey, wir haben
ja gesagt, wir wollen nicht, dass es dafür
benutzt wird, denn unsere KI ist noch nicht
so weit, solche weitreichenden Entscheidungen allein zu treffen.
Interessant.
Wenn man sich das so anschaut, dann gibt
es eigentlich einen größeren Schaden und zwar für
die gesamte Tech-Industrie.
Wenn ein Unternehmen versucht, ethische Grenzen zu definieren
und dann vom Staat praktisch dafür abgestraft wird,
dann könnte es die anderen Firmen doch ziemlich
vorsichtig machen.
Die könnten sogar überlegen, Amerika zu verlassen und
nach Europa zu gehen.
Das ist ja dann doch berechenbarer alles.
Und so bleibt dann doch so ein bisschen
das Gefühl, dass das hier eher ein Kampf
der Egos ist, als wirklich ein ethischer Kampf.
Auf jeden Fall ist jetzt OpenAI eingesprungen und
wird diese Tätigkeiten übernehmen.
Die werden bei Palantir eingebaut werden und Claude
fliegt da raus.
Aber die ChatGBT-App ist im App Store
nach unten gerutscht.
Mein Magen rutscht auch immer weiter runter.
Können wir jetzt Edlinor essen?
Das ist die KI-Kantine.
Wir sitzen in der KI-Kantine.
Die KI-Kantine ist ein Projekt von Michael
Busch, der auch beim nächsten Mal wieder ein
frisches KI-Gericht auftischt mit einer Prise Pommes
und einer Beilage Skepsis.
Wir sitzen in der KI-Kantine.
Hier ist die KI-Kantine.