Dario Amodei zieht eine rote Linie: Keine autonomen Waffen, keine Massenüberwachung. Auch wenn es die Firma teuer zu stehen kommt.
Es ist ein Satz, den man von einem KI-CEO in diesen Zeiten selten hört: «Wir können ihrer Forderung nicht guten Gewissens nachkommen.»
Gesagt hat ihn Dario Amodei, CEO und Mitgründer von Anthropic, am Donnerstag in einer offiziellen Stellungnahme. Adressat: das amerikanische Verteidigungsministerium unter Pete Hegseth. Der Streit ist eskaliert, und Anthropic hat sich klar positioniert.
Was das Pentagon wollte
Verteidigungsminister Pete Hegseth hatte Anthropic eine Frist gesetzt: bis Freitagabend 17 Uhr (Ortszeit) sollte das Unternehmen seine Nutzungsbedingungen lockern. Konkret: Die Beschränkungen für autonome Waffen und Massenüberwachung im Inland sollten fallen.
Hintergrund ist ein seit Wochen schwelender Konflikt. Ausgelöst hatte ihn der Bericht, dass Anthropic intern Fragen aufgeworfen hatte, wie ihr Chatbot Claude bei der Razzia zur Gefangennahme des venezolanischen Präsidenten Nicolás Maduro eingesetzt worden war.
Das Pentagon reagierte mit Druck: Es kontaktierte Boeing und Lockheed Martin, um zu erkunden, ob Anthropic als Lieferkettenrisiko deklariert werden könnte. Eine Klassifizierung, die sonst nur chinesischen Firmen wie Huawei oder der russischen Kaspersky vorbehalten ist.
Anthropics Antwort
«Diese Anwendungsfälle waren nie in den Verträgen enthalten. Wir sind der Meinung, dass sie auch jetzt nicht enthalten sein sollten. Unabhängig von den Drohungen ändert sich unsere Position nicht.»
— Dario Amodei, CEO Anthropic
Gleichzeitig zeigte sich Amodei gesprächsbereit: Er hoffe, das Pentagon werde seine Entscheidung überdenken. Und für den Fall, dass es nicht dazu kommt, habe Anthropic einen reibungslosen Übergang zu einem anderen Anbieter bereits in Aussicht gestellt.
Was jetzt passieren könnte
Anthropic wird offiziell als Sicherheitsrisiko klassifiziert. Alle Unternehmen, die mit dem Pentagon zusammenarbeiten, dürfen Anthropic nicht mehr nutzen. Problem: Claude ist bis heute die einzige KI, die in streng vertraulichen US-Regierungssystemen zugelassen ist.
Hegseth könnte dieses Gesetz aus dem Kalten Krieg bemühen, um Anthropic gesetzlich zur Aufhebung der Nutzungsauflagen zu zwingen. Anthropic würde dann wohl vor Gericht ziehen.
Ein kurzfristiger Ersatz ist nicht in Sicht: xAI hat zwar Zugang zu vertraulichen Systemen, ist aber noch nicht breit einsatzfähig. Google und OpenAI arbeiten noch an den Freigaben.
Der grössere Kontext
Bemerkenswert: Noch am Donnerstag verbreiteten Mitarbeitende bei Google und OpenAI intern eine Petition, die von ihrer Führungsriege verlangt, dieselben Nutzungsauflagen wie Anthropic gegenüber dem Pentagon durchzusetzen.
Anthropic setzt hier ein Zeichen. Wie viel Rückgrat haben Tech-Unternehmen gegenüber staatlichem Druck? Diese Frage wird die KI-Branche noch lange beschäftigen.