ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Il Pentagono statunitense intensifica i colloqui con le principali aziende di intelligenza artificiale per l'implementazione di strumenti su sistemi classificati

DiJai HamidJai Hamid
Tempo di lettura: 3 minuti.
Il Pentagono statunitense intensifica i colloqui con le principali aziende di intelligenza artificiale per l'implementazione di strumenti su sistemi classificati
  • Il Pentagono sta spingendo OpenAI e Anthropic a implementare strumenti di intelligenza artificiale su reti militari classificate con meno restrizioni.
  • OpenAI ha firmato un accordo per fornire ChatGPT sulla rete non classificata genai.mil utilizzata da oltre 3 milioni di dipendenti del Dipartimento della Difesa.
  • Anthropic è impegnata in trattative più severe e non vuole che la sua intelligenza artificiale venga utilizzata per armi autonome o per la sorveglianza interna.

Il Pentagono sta esercitando forti pressioni sulle principali aziende di intelligenza artificiale affinché concedano all'esercito statunitense l'accesso ai loro strumenti all'interno di sistemi classificati.

I funzionari non chiedono solo un accesso di base. Vogliono che questi modelli di intelligenza artificiale funzionino senza tutti i limiti che le aziende impongono agli utenti.

Durante un incontro alla Casa Bianca tenutosi martedì, Emil Michael, responsabile della tecnologia del Pentagono, ha dichiarato ai leader del settore tecnologico che l'esercito desidera che questi modelli di intelligenza artificiale vengano utilizzati sia su reti classificate che non classificate.

Un funzionario vicino ai colloqui avrebbe affermato che il governo è ora intenzionato a introdurre quelle che definisce "capacità di intelligenza artificiale di frontiera" in ogni livello di utilizzo militare.

Il Pentagono chiede l'accesso senza restrizioni attraverso reti sicure

Questa spinta si inserisce in un dibattito più ampio su come l'intelligenza artificiale verrà utilizzata nei combattimenti futuri. Le guerre sono già caratterizzate da sciami di droni, robot e attacchi informatici incessanti. Il Pentagono non vuole rincorrere il mondo della tecnologia mentre traccia limiti a ciò che è consentito.

Al momento, la maggior parte delle aziende che collaborano con l'esercito offre versioni ridotte dei propri modelli. Queste funzionano solo su sistemi aperti e non classificati, utilizzati per attività amministrative. Anthropic è l'unica eccezione.

Claude, il suo chatbot, può essere utilizzato in alcuni contesti classificati, ma solo tramite piattaforme di terze parti. Anche in questo caso, gli utenti governativi devono comunque rispettare le regole di Anthropic.

Ciò che il Pentagono vuole è l'accesso diretto all'interno di reti classificate altamente sensibili. Questi sistemi vengono utilizzati per attività come la pianificazione di missioni o l'individuazione di obiettivi. Non è chiaro quando o come chatbot come Claude o ChatGPT verranno installati su queste reti, ma questo è l'obiettivo.

I funzionari ritengono che l'intelligenza artificiale possa aiutare a elaborare enormi quantità di dati e a trasmetterli rapidamente ai decisori. Ma se questi strumenti generassero informazioni false, e in effetti lo fanno, le persone potrebbero morire. I ricercatori hanno lanciato l'allarme proprio su questo.

OpenAI ha stretto un accordo con il Pentagono questa settimana. ChatGPT verrà ora utilizzato su una rete non classificata chiamata genai.mil. Questa rete raggiunge già oltre 3 milioni di dipendenti del Dipartimento della Difesa.

Come parte dell'accordo, OpenAI ha rimosso molti dei suoi normali limiti di utilizzo. Sono ancora presenti alcune limitazioni, ma il Pentagono ha ottenuto quasi tutto ciò che desiderava.

Un portavoce dell'azienda ha dichiarato che qualsiasi estensione all'uso classificato richiederebbe un nuovo accordo. Google e xAI di Elon Musk hanno già concluso accordi simili in passato.

I ricercatori dell'intelligenza artificiale si ritirano e denunciano i rischi

I colloqui con Anthropic non sono stati così facili. I dirigenti dell'azienda hanno dichiarato al Pentagono di non voler utilizzare la loro tecnologia per il targetingmatic o lo spionaggio di persone all'interno degli Stati Uniti.

Sebbene Claude sia già utilizzato in alcune missioni di sicurezza nazionale, i dirigenti dell'azienda stanno reagendo. In una dichiarazione, un portavoce ha dichiarato:

"Anthropic si impegna a proteggere la leadership americana nell'intelligenza artificiale e ad aiutare il governo degli Stati Uniti a contrastare le minacce straniere, offrendo ai nostri combattenti l'accesso alle capacità di intelligenza artificiale più avanzate"

Hanno affermato che Claude è già in uso e che l'azienda sta ancora collaborando a stretto contatto con quello che oggi è chiamato Dipartimento della Guerra. Ildent Donald Trump ha recentemente ordinato al Dipartimento della Difesa di adottare quel nome, ma il Congresso deve ancora approvarlo.

Mentre tutto questo accade, un gruppo di ricercatori di queste aziende se ne va. Uno dei principali ricercatori di Anthropic, esperto in sicurezza, ha dichiarato: "Il mondo è in pericolo", abbandonando l'incarico. Anche un ricercatore di OpenAI se n'è andato, affermando che la tecnologia ha "il potenziale per manipolare gli utenti in modi che non abbiamo gli strumenti per comprendere, figuriamoci per prevenirli"

Alcune delle persone che se ne vanno non lo fanno in silenzio. Stanno avvertendo che le cose si stanno muovendo troppo velocemente e che i rischi vengono ignorati. Zoë Hitzig, che ha lavorato presso OpenAI per due anni, si è dimessa questa settimana.

In un saggio, ha affermato di avere "profonde riserve" su come l'azienda intende gestire la pubblicità. Ha anche affermato che ChatGPT memorizza i dati privati ​​delle persone, come "paure mediche, problemi relazionali, convinzioni su Dio e l'aldilà"

Ha affermato che questo è un grosso problema perché le persone si fidano del chatbot e non pensano che abbia scopi nascosti.

Più o meno nello stesso periodo, il sito tecnologico Platformer ha riferito che OpenAI si è sbarazzata del suo team di allineamento delle missioni. Quel gruppo era stato istituito nel 2024 per garantire che l'obiettivo dell'azienda di sviluppare un'intelligenza artificiale che aiutasse tutta l'umanità avesse effettivamente un significato.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO