Il Dipartimento del Commercio, sotto l'amministrazione Biden, punta a una nuova iniziativa di conformità per limitare ulteriormente l'esportazione di modelli di intelligenza artificiale open source o closed source. L'iniziativa è un tentativo di salvaguardare gli interessi e la tecnologia di intelligenza artificiale degli Stati Uniti da Russia e Cina e integrerà le misure adottate negli ultimi due anni per bloccare l'accesso cinese ai più recenti chip per computer avanzati.
L'iniziativa degli Stati Uniti è quella di creare barriere protettive più rigide attorno al software di base dei grandi modelli linguistici che alimentano app come ChatGPT, ha riportato Reuters, citando tre fonti a conoscenza della questione. Mentre l'agenzia di stampa ha affermato che i ricercatori del settore privato e del governo sono preoccupati per il fatto che gli avversari statunitensi possano utilizzare la tecnologia per attacchi informatici aggressivi e sviluppare armi biologiche, l'ambasciata cinese si è opposta alla mossa, descrivendola come un atto di bullismo unilaterale e coercizione economica.
I deepfake sono un'arma letale di disinformazione
Le minacce che gli Stati Uniti temono sono molteplici e possono essere sfruttate da attori non statali supportati dagli stati. I deepfake possono essere utilizzati come un'arma efficace per la propaganda, poiché si basano su video realistici ma falsi, creati tramite strumenti di intelligenza artificiale.
Questi tipi di video stanno già emergendo sui social media. Sebbene questi contenuti multimediali esistano già da qualche anno, sviluppati con software di animazione e rendering, gli strumenti di intelligenza artificiale generativa ne hanno reso la produzione accessibile a chiunque, e i malintenzionati possono sfruttarli più facilmente che mai per manipolare l'opinione pubblica su temi delicati, soprattutto durante le campagne elettorali.
Piattaforme di social media come YouTube, Facebook e Twitter hanno già adottato misure per limitare i deepfake, ma anche le tattiche per svilupparli e pubblicarli stanno cambiando con l'evoluzione della tecnologia. Al momento, strumenti di aziende come Microsoft e OpenAI possono essere utilizzati per creare contenuti per diffondere disinformazione.
Una preoccupazione molto più grande è che i modelli di intelligenza artificiale possano far trapelare informazioni utili allo sviluppo di armi biologiche, secondo i ricercatori della Rand Corporation e della Gryphon Scientific; inoltre, le agenzie di intelligence statunitensi, gli esperti accademici e i think tank sono preoccupati per la possibilità che l'intelligenza artificiale finisca nelle mani di elementi non autorizzati.
Lo studio Gryphondentcome gli LLM possano produrre conoscenze specialistiche e di livello dottorale che possono contribuire allo sviluppo di virus con capacità pandemiche, e che possono essere utilizzate da attori non statali come armi biologiche.
Attacchi informatici amplificati con modelli di intelligenza artificiale
Anche il Dipartimento per la sicurezza interna ha espresso preoccupazione per il fatto che gli attacchi informatici a infrastrutture cruciali come ferrovie e oleodotti potrebbero essere eseguiti con l'intelligenza artificiale, sviluppando nuovi strumenti in grado di sferrare attacchi informatici più rapidi e su larga scala.
L'agenzia ha inoltre affermato che la Cina sta sviluppando un software di intelligenza artificiale che può essere utilizzato per attacchi malware e sta lavorando anche su tecnologie di intelligenza artificiale che potrebbero potenzialmente sabotare le difese informatiche del Paese.

A febbraio, Microsoft ha pubblicato un rapporto in cui ha dichiarato di averdentgruppi informatici coinvolti in attività di hacking che stanno perfezionando le loro campagne di hacking utilizzando LLM e che hanno affiliazioni con l'intelligence militare della Russia, i governi nordcoreano e cinese e le Guardie Rivoluzionarie dell'Iran.
finanziati dallo Stato i gruppi informatici di utilizzare i suoi prodotti e servizi di intelligenza artificiale. Mercoledì, un gruppo di statisti ha proposto un disegno di legge che aiuterà il governo Biden a imporre controlli sull'esportazione di modelli di intelligenza artificiale per impedirne l'esposizione a potenziali avversari.
Gli esperti in materia hanno affermato che Washington sta cercando di evitare normative eccessive che potrebbero reprimere l'innovazione, mentre si impegna a promuoverla insieme a possibili soluzioni per i rischi associati all'IA. Hanno inoltre sottolineato che l'applicazione di normative severe regolamentando rigorosamente il progresso dell'IA creerà un vuoto per i concorrenti esteri e avrà un impatto negativo sui settori delle infrastrutture, della sicurezza nazionale e della scoperta di farmaci.

