Axios , setzen US-Geheimdienste aktiv fortschrittliche KI-Tools von Anthropic , obwohl das Pentagon das Unternehmen offiziell als „Lieferkettenrisiko“ eingestuft hat.
Im Zentrum der Kontroverse steht das Mythos Preview-Modell National Security Agency eingesetzt wird . Diese Entwicklung offenbart eine wachsende Kluft innerhalb der US-Regierung hinsichtlich des Umgangs mit der Frage, wie die rasche Einführung von KI mit internen Sicherheitsbestimmungen in Einklang gebracht werden kann.
Das Pentagon setzte Anthropic Anfang Februar 2026 nach einem Streit über KI-Sicherheitsvorkehrungen und deren militärische Nutzung auf die schwarze Liste und warnte formell vor einer potenziellen Schwachstelle in der Lieferkette. Geheimdienstmitarbeiter scheinen jedoch die Fähigkeiten von Mythos, insbesondere im Bereich Cybersicherheit, höher zu bewerten als diese Bedenken.
Laut Quellen hat die National Security Agency (NSA) – ebenso wie andere Abteilungen des Ministeriums – Mythos eingeführt. Bislang sind die genauen Einsatzmöglichkeiten von Mythos bei der NSA nicht öffentlich bekannt, andernorts wird das Modell jedoch hauptsächlich zur Überprüfung interner Systeme auf Sicherheitslücken verwendet. Es gilt als eines der fortschrittlichsten verfügbaren KI-Systeme und verfügt übertron„agentische“ Fähigkeiten, die es ihm ermöglichen, komplexe Systeme autonom zu analysieren und auszunutzen.
Berichte über die Nutzung durch NSA und das Verteidigungsministerium folgen nur wenige Tage, nachdem Insider berichtet hatten, das Weiße Haus verhandle über den Zugang zum Mythos-Modell von Anthropic, obwohl die Bemühungen, das Unternehmen auf eine schwarze Liste zu setzen, andauerten. Vor Kurzem bestätigte CEO Dario Amodei zudem, dass das Unternehmen Kontakt zu Regierungsvertretern aufgenommen habe und offen für eine Zusammenarbeit sei.
Einige Behörden argumentieren, dass eine Beschränkung des Zugangs zu solch leistungsstarker KI die USA strategisch benachteiligen könnte, insbesondere gegenüber geopolitischen Rivalen. Experten warnen jedoch, dass die Fähigkeiten, die Mythos für die Verteidigung so wertvoll machen, auch neue Risiken bergen könnten. Die Fähigkeit, Schwachstellen in großem Umfang aufzudecken, könnte bei Missbrauch als Waffe eingesetzt werden, was Befürchtungen hinsichtlich einer Eskalation der Cyberkriegsführung aufkommen lässt.
Beamte des Weißen Hauses trafen sich mit Amodei, um den Einsatz von Mythos in Regierungsoperationen zu besprechen
Nur etwa 40 geprüfte Organisationen dürfen Mythos nutzen. Von diesen 40 Gruppen sind lediglich 12 öffentlich bekannt, und die NSA gehört Berichten zufolge zur nicht gelisteten Mehrheit. In Großbritannien gaben ähnliche Behörden wie die NSA an, über ihr nationales Institut für KI-Sicherheit ebenfalls Zugriff auf das Modell zu haben.
Anthropic beschreibt Mythos als außerordentlich leistungsstark im Bereich Cybersicherheit; es ist in der Lage, tief eingebettete Sicherheitslücken aufzuspüren unddentauszunutzen. Diese Kombination aus fortschrittlicher Erkennung und autonomer Analyse hat bereits sowohl Interesse als auch Besorgnis bei politischen Entscheidungsträgern hervorgerufen.
Am Freitag traf sich Amodei mit der Stabschefin des Weißen Hauses, Susie Wiles, und Finanzminister Scott Bessent, um zu erörtern, wie das Modell sicher in die Regierungsinfrastruktur integriert werden kann. Trotz der öffentlichen Spannungen zwischen dem Weißen Haus und Anthropic unterstreicht dieses Treffen, dass das Potenzial des Modells für die Sicherheitsbedürfnisse des Bundes schlichtweg zu wertvoll ist, um es zu ignorieren.
Beide Seiten bezeichneten die Gespräche als produktiv. Das Weiße Haus teilte sogar mit: „Wir haben über Möglichkeiten der Zusammenarbeit sowie über gemeinsame Ansätze und Protokolle zur Bewältigung der Herausforderungen im Zusammenhang mit der Skalierung dieser Technologie gesprochen.“
Anthropic hat Klage eingereicht, um die Einstufung als Lieferkettenrisiko anzufechten
Anthropic konterte im März mit einer Klage gegen das Pentagon, um die Einstufung als Lieferkettenrisiko, die ihretracgefährdete, aufzuheben. Es war das erste Mal, dass ein inländischer Anbieter als „nicht sicher genug“ eingestuft wurde, wodurch seine Produkte faktisch vom regulären Regierungseinsatz ausgeschlossen wurden.
Das Anwaltsteam von Anthropic bezeichnete die Einstufung als „Risiko“ als Racheakt, nachdem Amodei den Antrag des Verteidigungsministeriums auf Integration der KI in vollautonome Waffensysteme und die Massenüberwachung im Inland abgelehnt hatte.
Cryptopolitan bereits berichtete , gab ein kalifornischer Bezirksrichter Anthropic Recht und blockierte vorläufig die Einstufung als „Lieferkettenrisiko“. Ein Bundesberufungsgericht hob diese einstweilige Verfügung jedoch auf, sodass die Einstufung vorerst bestehen bleibt.
In der Anfangsphase der Bemühungen um die Schwarze Liste hattedent Donald Trump behauptet, die radikalen Linken, die das Unternehmen leiteten, versuchten, dem Verteidigungsministerium Bedingungen zu diktieren. Er argumentierte: „Wir brauchen es nicht, wir wollen es nicht und werden nie wieder mit ihnen Geschäfte machen!“
Aktuell glauben einige im Verteidigungsministerium noch immer, dass Anthropics mangelnde Kooperationsbereitschaft beweist, dass das Unternehmen seine Technologie im Kriegsfall abschalten würde und somit ein Fluchtrisiko im Kampf darstellt. Andere Regierungsbeamte hingegen sind bestrebt, den Streit beizulegen, nur um an die überlegene Technologie des Unternehmens zu gelangen.

