Pentagons KI-Abkommen schließen Anthropic aus — während die NSA das Flaggschiff-Modell des Unternehmens weiterhin nutzt
Am 1. Mai gab das US-Verteidigungsministerium Abkommen mit acht KI-Unternehmen bekannt — OpenAI, Google, xAI, Microsoft, NVIDIA, AWS, Oracle und Reflection AI — die deren Modelle in klassifizierten Netzwerken unter einer zentralen Bedingung autorisieren: der Zustimmung zur Nutzung für „jeden gesetzlich zulässigen Zweck". Anthropic fehlte. Das Unternehmen hatte auf explizite ethische Leitplanken bestanden, bevor es unterzeichnen würde; die Wettbewerber unterzeichneten ohne sie.
Was die Quellen tatsächlich besagen
Laut der Analyse von @yaelkroy zur DoD-Ankündigung erhielten einige der acht Auftragnehmer dennoch informelle Zusicherungen bezüglich nicht-letaler Nutzung und Überwachungsgrenzen — im Wesentlichen dieselben Schutzmaßnahmen, die Anthropic öffentlich gefordert hatte. Das Unternehmen blieb trotzdem außen vor und steht nun vor Klagen und entgangenen Staatseinnahmen, während Wettbewerber ihren Platz in der klassifizierten Infrastruktur gesichert haben.
Die governance-bezogene Ironie vertieft sich durch den NSA-Aspekt. Axios berichtete im April, dass die NSA Claude Mythos Preview weiterhin für das Auffinden von Software-Schwachstellen einsetzte, obwohl Anthropic formal als Lieferketten-Risiko eingestuft war — eine bundesbehördliche Einstufung, die eine Zusammenarbeit mit dem Unternehmen eigentlich unterbinden soll. Der Grund ist strategisch offensichtlich: Ein Modell, das Software-Schwachstellen aufzuspüren vermag, ist für den operativen Betrieb zu wertvoll, um es aus regulatorischen Gründen aus dem Verkehr zu ziehen.
Das Gesamtbild gliedert sich in drei Ebenen. OpenAI und Google werden bestimmen, wie Frontier-Modelle innerhalb klassifizierter Systeme operieren; AWS, Microsoft, Oracle und NVIDIA stellen die Infrastrukturschicht bereit; xAI und Reflection AI gewinnen im Verteidigungssektor Fuß. Anthropic hält das moralische Hochfeld, einen laufenden Rechtsstreit und keinen Vertrag. Die Migration weg von Anthropics Modellen ist berichten zufolge unvollständig — einige Analysten sind nach wie vor auf ältere Claude-Versionen angewiesen, weil das Ersatz-Stack noch nicht vollständig operabel ist.
Strategische Einschätzung
Diese Episode beendet formal die Ära, in der KI-Unternehmen glaubwürdig behaupten konnten, dem Verteidigungsbereich fernzubleiben. Die dauerhaft gültige kommerzielle Lehre: Forderungen nach ethischen Leitplanken tragen reale Umsatzkosten, wenn Wettbewerber bereit sind, ohne sie zu unterzeichnen. Jedes KI-Unternehmen, das ähnliche Positionen erwägt, sollte diesen Zielkonflikt explizit einpreisen.

