Secondo un nuovo rapporto evidenziato da Axios , le agenzie di intelligence statunitensi stanno attivamente utilizzando strumenti avanzati di intelligenza artificiale di Anthropic
Al centro della controversia c'è il modello Mythos Preview , che secondo alcune fonti è attualmente in uso presso la National Security Agency (NSA). Questo sviluppo mette in luce una crescente spaccatura all'interno del governo statunitense su come conciliare la rapida adozione dell'intelligenza artificiale con le restrizioni di sicurezza interna.
Il Pentagono ha inserito Anthropic nella lista nera all'inizio di febbraio 2026 a seguito di una controversia sulle misure di sicurezza dell'IA e sul suo utilizzo in ambito militare, avvertendo formalmente che i suoi sistemi rappresentavano una potenziale vulnerabilità della catena di approvvigionamento. Tuttavia, i funzionari dell'intelligence sembrano dare priorità alle capacità di Mythos, in particolare nel campo della sicurezza informatica, rispetto a tali preoccupazioni.
Secondo alcune fonti, la National Security Agency (NSA) ha adottato Mythos, così come altre unità all'interno del Dipartimento di Stato. Finora, i dettagli specifici dell'utilizzo di Mythos da parte dell'NSA non sono noti al pubblico, ma altrove il modello viene ampiamente utilizzato per scansionare ambienti interni alla ricerca di falle di sicurezza. Il modello è considerato uno dei sistemi di intelligenza artificiale più avanzati disponibili, controncapacità "agenti" che gli consentono di analizzare e sfruttare autonomamente sistemi complessi.
Le notizie sull'utilizzo da parte della NSA e del Dipartimento della Difesa giungono a pochi giorni di distanza dalle indiscrezioni secondo cui la Casa Bianca stava negoziando l'accesso al modello Mythos di Anthropic, nonostante i tentativi di inserire l'azienda nella lista nera continuassero. Più recentemente, anche l'amministratore delegato Dario Amodei ha confermato che l'azienda è in contatto con funzionari governativi ed è aperta alla collaborazione.
Alcune agenzie sostengono che limitare l'accesso a un'intelligenza artificiale così potente potrebbe mettere gli Stati Uniti in una posizione di svantaggio strategico, soprattutto nei confronti dei rivali geopolitici. Tuttavia, gli esperti avvertono che le stesse capacità che rendono Mythos prezioso per la difesa potrebbero anche introdurre nuovi rischi. La sua capacità di individuare vulnerabilità su larga scala potrebbe essere utilizzata in modo improprio, sollevando preoccupazioni circa un'escalation nella guerra cibernetica.
Funzionari della Casa Bianca hanno incontrato Amodei per discutere dell'utilizzo del Mito nelle operazioni governative
Solo una quarantina di organizzazioni selezionate sono autorizzate a utilizzare Mythos. Di queste 40, solo 12 sono note al pubblico e, secondo alcune fonti, la NSA rientrerebbe nella maggioranza non elencata. Nel Regno Unito, agenzie simili alla NSA hanno inoltre dichiarato di avere accesso al modello tramite il loro Istituto nazionale per la sicurezza dell'IA.
Anthropic descrive Mythos come una tecnologia straordinariamente potente nel campo della sicurezza informatica, capace di individuare vulnerabilità profondamente radicate e di sfruttarle in mododent. Questa combinazione di rilevamento avanzato e analisi autonoma ha già suscitato interesse e preoccupazione tra i responsabili politici.
Venerdì, Amodei ha incontrato il capo di gabinetto della Casa Bianca, Susie Wiles, e il segretario al Tesoro, Scott Bessent, per discutere di come il modello possa essere integrato in modo sicuro nelle infrastrutture governative. Nonostante le pubbliche tensioni tra la Casa Bianca e Anthropic, questo incontro evidenzia come il potenziale del modello sia semplicemente troppo prezioso perché le esigenze di sicurezza federale possano ignorarlo.
Entrambe le parti hanno definito i colloqui produttivi. La Casa Bianca ha persino dichiarato: "Abbiamo discusso di opportunità di collaborazione, nonché di approcci e protocolli condivisi per affrontare le sfide legate alla diffusione di questa tecnologia"
Anthropic ha intentato una causa per contestare la designazione del rischio della catena di approvvigionamento
A marzo, Anthropic ha replicato al Pentagono intentando una causa per ribaltare la classificazione di rischio della catena di approvvigionamento che minacciava i suoitracgovernativi. Questa è stata la prima volta che l'etichetta di "non sufficientemente sicuro" è stata attribuita a un fornitore nazionale, di fatto precludendo l'utilizzo standard dei suoi strumenti da parte del governo.
Il team legale di Anthropic ha definito la designazione di "rischio" una tattica di vendetta dopo che Amodei ha negato la richiesta del Dipartimento della Difesa di integrare l'IA in sistemi d'arma completamente autonomi e nella sorveglianza di massa sul territorio nazionale.
Come riportato in precedenza da Cryptopolitan , un giudice di un tribunale distrettuale della California si è schierato dalla parte di Anthropic e ha temporaneamente bloccato l'etichetta di "rischio della catena di approvvigionamento". Tuttavia, una corte d'appello federale ha successivamente annullato tale sospensione, mantenendo per ora la designazione in vigore.
Nei primi giorni del tentativo di inserire l'azienda nella lista nera, ildent Donald Trump aveva affermato che i radicali di sinistra che gestivano la società stavano cercando di imporre le proprie condizioni al Dipartimento della Difesa. Aveva sostenuto: "Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!"
Al momento, alcuni membri del Dipartimento della Difesa ritengono ancora che il rifiuto di Anthropologie di collaborare pienamente dimostri che l'azienda disattiverebbe la propria tecnologia in caso di guerra, esponendosi al rischio di fuga in combattimento. Tuttavia, altri funzionari dell'amministrazione sono ansiosi di seppellire l'ascia di guerra pur di mettere le mani sulla tecnologia avanzata dell'azienda.

