Es gibt Momente, in denen sich entscheidet, wer eine Branche wirklich ist. Nicht auf Bühnen bei Konferenzen. Nicht in Pressemitteilungen über "verantwortungsvolle KI". Sondern dann, wenn jemand klopft und sagt: Unterschreib hier, oder du bist draußen.
Dieser Moment ist gerade eingetreten. Und die KI-Branche hat ihn versagt.
Was passiert ist
Das US-Verteidigungsministerium (unter Kriegsminister Pete Hegseth inzwischen bezeichnenderweise wieder "Department of War" genannt) hat eine klare Ansage an alle KI-Unternehmen gemacht: Wer staatliche Verträge will, muss "any lawful use" seiner Modelle akzeptieren. Keine Ausnahmen. Keine roten Linien. Voller Zugriff.
Anthropic, das Unternehmen hinter Claude, hat genau zwei Ausnahmen gefordert:
1. Massenüberwachung der eigenen Bevölkerung
Der Einsatz von KI zur massenhaften Überwachung von Bürgern stellt nach Anthropics Einschätzung eine ernsthafte, neuartige Bedrohung für bürgerliche Grundrechte dar. Unvereinbar mit demokratischen Werten.
2. Vollständig autonome Waffensysteme
Aktuelle KI-Modelle sind nach Einschätzung von Anthropic nicht zuverlässig genug, um Waffensysteme ohne menschliche Kontrolle zu steuern. Der Einsatz würde amerikanische Soldaten und Zivilisten gefährden, nicht schützen.
Zwei Ausnahmen. Nicht zwanzig. Nicht eine Liste von Bedingungen. Zwei klare, begründete rote Linien.
Das Ergebnis: Pete Hegseth plant, Anthropic als "Supply Chain Risk" einzustufen, eine Bezeichnung, die bislang ausschließlich für feindliche Staaten reserviert war. Nie zuvor wurde sie öffentlich gegen ein amerikanisches Unternehmen eingesetzt. Anthropic war wohlgemerkt das erste KI-Unternehmen überhaupt, das seine Modelle in klassifizierten Netzwerken der US-Regierung einsetzte. Seit Juni 2024 arbeitet das Unternehmen mit dem Militär zusammen.
Anthropic hat angekündigt, die Einstufung gerichtlich anzufechten.
OpenAI nimmt den Deal an
Stunden nach der Nachricht über Anthropic wurde bekannt: OpenAI hat einen Vertrag mit dem Pentagon unterzeichnet.
Keine öffentlichen roten Linien. Kein Statement zu Ausnahmen. Kein "We can't agree to this."
Für viele überraschend war das nicht. Wer die Entwicklung kennt, weiß: OpenAI hat vor nicht allzu langer Zeit still und leise die Passage aus seinen eigenen Nutzungsbedingungen gestrichen, die militärische Anwendungen explizit verboten hatte. Heute findet man dort nur noch die vage Formulierung, die Nutzung sei für "rechtmäßige" Zwecke erlaubt. Kein Verbot. Keine roten Linien. Die Richtung war also schon länger klar: Das Pentagon-Abkommen ist nur der sichtbare Schlusspunkt dieser Entwicklung.
OpenAI, das Unternehmen, das seine Existenz mit dem Versprechen begründete, KI zum Wohl der gesamten Menschheit zu entwickeln, hat den Deal gemacht, den Anthropic ablehnte.
Das ist kein kleines Detail. Das ist eine Richtungsentscheidung, die die Branche spaltet.
Das Problem mit "Lawful"
Hier liegt ein kritischer Punkt, der in der öffentlichen Debatte kaum beachtet wird: "Lawful" (rechtmäßig) ist kein neutraler Begriff. Er ist dehnbar. Und er wird von genau jenen Institutionen definiert und interpretiert, die die Technologie nutzen wollen.
Wenn das Pentagon bestimmt, was eine rechtmäßige Nutzung ist, dann wird Ethik zum bürokratischen Hindernis. Dann ist eine KI, die autonome Drohnenangriffe koordiniert, rechtmäßig, solange der entsprechende Beschluss vorliegt. Dann ist eine KI, die Millionen von Bürgerinnen und Bürgern überwacht, rechtmäßig, solange das Gesetz es so sieht.
Die Zustimmung zur Formel "any lawful use" bedeutet letztlich die vollständige Eingliederung von KI in den militärisch-industriellen Komplex. Man könnte zugespitzt sagen: KI wird zum neuen Manhattan-Projekt. Und wer nicht mitmacht, wird (wie gerade zu beobachten) als Sicherheitsrisiko gebrandmarkt.
KI ist auf dem Schlachtfeld angekommen
Was gerade passiert, geht weit über einen Unternehmensstreit hinaus. Es geht um eine fundamentale Frage: Wer entscheidet, wofür KI eingesetzt wird?
KI ist längst nicht mehr nur ein Werkzeug für Unternehmensproduktivität oder einen besseren Netflix-Algorithmus. Sie ist in den Alltag der Menschen eingedrungen und marschiert gerade in Richtung Schlachtfeld. Regierungen entscheiden heute, welche Modelle Teil staatlicher Machtstrukturen werden. Diese Entscheidungen werden das Kräfteverhältnis der gesamten KI-Branche langfristig prägen.
Der Wettbewerb zwischen KI-Laboren findet nicht mehr nur auf der Ebene von Benchmarks und Modellleistung statt. Er findet auf politischer und militärischer Ebene statt. Und wer sich dem Staat verweigert, riskiert nicht nur Vertragslosigkeit, sondern auch, als Sicherheitsrisiko gebrandmarkt zu werden.
Die Akteure: jenseits der PR
Es lohnt sich, die einzelnen Spieler nüchtern zu betrachten. Ohne Heldenerzählung, ohne Dämonisierung.
OpenAI & Google sind längst systemrelevante Infrastrukturen. Sie können es sich wirtschaftlich kaum leisten, der mächtigsten Institution der Welt dauerhaft die Tür vor der Nase zuzuschlagen. Die Milliardeninvestitionen ihrer Geldgeber müssen sich rentieren, und Staatsaufträge sind die verlässlichste Einnahmequelle, die es gibt. Ihr "Ja" zum Pentagon ist weniger moralisches Versagen als wirtschaftliche Zwangslogik. Das macht es nicht besser. Aber es erklärt es.
xAI (Elon Musk) gibt sich gern als Rebell. Doch Musks Firmen sind bereits tief in nationale Sicherheitsstrukturen eingebettet: Starlink spielt in Ukraine und Taiwan eine geopolitische Schlüsselrolle, SpaceX ist unverzichtbar für US-Militärsatelliten. Die Zustimmung zu "lawful use" passt nahtlos zu Musks Weltbild, in dem technologische Vorherrschaft und nationale Überlebensstrategie untrennbar verknüpft sind.
Anthropic positioniert sich als das Gewissen der Branche. Ihr Ansatz der "Constitutional AI" (KI mit einer Art innerer Verfassung, die ethische Prinzipien technisch verankert) ist ein ernstzunehmender Versuch, Ethik nicht nur zu behaupten, sondern zu implementieren. Aber auch hier darf man kritisch fragen: Ist dieses "Nein" ein echtes moralisches Opfer? Oder ist es, zumindest teilweise, eine brillante Positionierungsstrategie, um als einziger "sauberer" Anbieter für Zivilgesellschaft, Forschung und kritische Institutionen übrigzubleiben? Beides kann gleichzeitig wahr sein.
Das Szenario, das wir hätten haben können
Stell dir mal kurz folgendes vor.
Anthropic lehnt ab. OpenAI lehnt auch ab. Google DeepMind lehnt ab. xAI lehnt ab. Alle großen KI-Labore stehen gemeinsam auf und sagen: Nein. Nicht ohne ethische Leitplanken. Nicht für Massenüberwachung. Nicht für autonome Tötungsmaschinen.
Was hätte die US-Regierung getan? Gar nichts. Denn ohne die Technologie dieser Unternehmen gibt es keine KI-gestützte Militärstrategie.
Stattdessen erleben wir das Gegenteil: Einzelne werden durch Druck und wirtschaftliche Ausgrenzung zermürbt, während andere die entstandene Lücke füllen. Divide and Conquer… das älteste Machtprinzip der Welt, angewandt auf die fortschrittlichste Technologie, die je entwickelt wurde.
Anthropic zeigt, dass Haltung möglich ist. Dass man "Nein" sagen kann, auch wenn es teuer wird. Das verdient Respekt.
Aber ein einzelnes Nein reicht nicht, wenn alle anderen Ja sagen.
Was das für uns bedeutet
Wer sich der Logik des Staates verweigert, wird diffamiert. "Gott-Komplex" ist noch das Freundlichste, was man sich anhören muss. "Nationale Sicherheitsgefährdung" ist das Werkzeug, das greift, wenn Argumente nicht mehr ausreichen. Das ist kein neues Phänomen, es ist das klassische Muster, mit dem ethische Bedenken delegitimiert werden, sobald Machtinteressen auf dem Spiel stehen.
Wir sind in einer Phase, in der die gesellschaftliche Debatte über KI noch weitgehend auf Produktivität, Automatisierung und Jobverlust fokussiert ist. Die eigentlich entscheidenden Fragen (wer kontrolliert KI? für welche Zwecke wird sie eingesetzt? wo sind die nicht verhandelbaren Grenzen?) werden gerade hinter verschlossenen Türen beantwortet.
Was jetzt passiert, wird nicht rückgängig zu machen sein. Wenn autonome Waffensysteme einmal auf KI-Modellen basieren, die "any lawful use" akzeptieren, dann ist die Büchse offen. Dann folgt der nächste Staat. Und der übernächste.
Anthropic hat eine Grenze gezogen. Die Frage ist: Wer zieht die nächste?
Das ist ein Meinungsbeitrag. Die zitierten Aussagen von Anthropic stammen aus dem offiziellen Statement des Unternehmens, nachzulesen unter anthropic.com.