ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

La Casa Bianca valuta la possibilità di sottoporre i modelli di intelligenza artificiale a una verifica preliminare prima del rilascio, esplorando una nuova frontiera nella supervisione tecnologica

DiIbiam WayasIbiam Wayas
3 minuti di lettura
La Casa Bianca ora vuole esaminare i modelli di intelligenza artificiale prima che vengano resi pubblici
  • La Casa Bianca ora vuole esaminare i modelli di intelligenza artificiale prima che vengano resi pubblici.
  • Secondo alcune fonti, l'amministrazione starebbe valutando la possibilità di emanare un decreto esecutivo per la creazione di un gruppo di lavoro sull'intelligenza artificiale, incaricato di sovrintendere alle procedure di controllo sull'IA.
  • Le autorità di regolamentazione temono che i sistemi di intelligenza artificiale siano ormai in grado di individuare un gran numero di vulnerabilità nei sistemi operativi e nei browser web.

La Casa Bianca sta valutando un piano per esaminare alcuni dei sistemi di intelligenza artificiale più potenti prima che vengano resi pubblici.

La proposta, riportata dal New York Times il 4 maggio, introdurrebbe il controllo federale in un momento critico del ciclo di vita dell'IA, poco prima della sua implementazione. Le autorità sono sempre più preoccupate dal fatto che i modelli di frontiera siano ora in grado di identificaredentsfruttare le vulnerabilità del software che sta alla base delle infrastrutture essenziali.

Un'analisi pubblicata da The Conversation evidenzia prove sempre più numerose del fatto che i recenti sistemi di intelligenza artificiale possono individuare un gran numero di vulnerabilità nei sistemi operativi e nei browser web. Questa capacità, pur essendo preziosa per la sicurezza difensiva, aumenta anche i rischi qualora tali strumenti venissero utilizzati in modo improprio o finissero nelle mani sbagliate.

Le capacità dei modelli inducono a ripensare le politiche

La discussione sulle politiche da adottare si è fatta più urgente dopo che Anthropic ha deciso di posticipare il lancio su larga scala del suo ultimo modello, Mythos. I test interni hanno rivelato funzionalità avanzate di sicurezza informatica, tra cui la capacità di identificaredentvulnerabilità sfruttabili. In risposta, l'azienda ha limitato l'accesso a un gruppo ristretto di organizzazioni responsabili delle infrastrutture critiche attraverso l'iniziativa "Project Glasswing".

Secondo The Conversation, la Casa Bianca è intervenuta quando Anthropic ha valutato la possibilità di ampliare l'accesso all'IA, segnalando un approccio più attivo alla supervisione del settore, sebbene le politiche tecnologiche in generale siano rimaste relativamente guidate dal mercato.

Le preoccupazioni non si limitano a una singola azienda o a un singolo sistema. L'AI Safety Institute del Regno Unito ha riferito, in una valutazione di aprile, che OpenAI GPT-5.5 ha dimostrato prestazioni comparabili in attività avanzate di sicurezza informatica.

In un test evidenziato dall'istituto, il modello ha effettuato il reverse engineering di una macchina virtuale personalizzata e ha risolto una sfida complessa in pochi minuti, molto più velocemente di un esperto umano che utilizza strumenti professionali.

"Una questione fondamentale era se ciò rappresentasse una svolta specifica per un singolo modello o parte di una tendenza più ampia", ha scritto l'istituto nel suo rapporto. "I risultati di una prima verifica del GPT-5.5 suggeriscono quest'ultima ipotesi."

Nel complesso, i risultati suggeriscono che queste capacità stanno diventando una caratteristica comune dei sistemi di intelligenza artificiale più avanzati, piuttosto che una scoperta isolata.

Le preoccupazioni relative alla sicurezza dell'IA assumono una dimensione geopolitica

Le implicazioni si estendono oltre la tecnologia, arrivando a toccare la sicurezza nazionale. I ricercatori citati da The Conversation avvertono che gruppi legati a stati potrebbero utilizzare strumenti simili per condurre operazioni informatiche, potenzialmente prendendo di mira infrastrutture o sistemi economici.

Ci sono già i primi segnali di questo cambiamento. Anthropic ha segnalato che presunti attori statali stanno utilizzando i suoi modelli in campagne di spionaggio che colpiscono decine di organizzazioni. Nel frattempo, Microsoft e OpenAI hanno affermato nel 2024 che gruppi affiliati a governi stavano sfruttando l'intelligenza artificiale per potenziare gli attacchi informatici.

Allo stesso tempo, i ricercatori sono ancora alle prese con il problema di come controllare in modo affidabile questi sistemi. Uno studio citato da The Conversation suggerisce che i filtri di sicurezza applicati dopo l'addestramento possono essere aggirati, mentre alcuni modelli potrebbero apparire conformi senza eliminare completamente le funzionalità rischiose.

Ciò ha portato a una crescente convinzione tra i responsabili politici che le misure di sicurezza debbano essere integrate già durante lo sviluppo del modello, anziché essere aggiunte in un secondo momento.

Prospettive politiche: quadri normativi frammentati, pressioni crescenti

La proposta statunitense sta prendendo forma all'interno di un panorama normativo globale più ampio e in continua evoluzione:

  • La legge europea sull'intelligenza artificiale definisce un quadro normativo basato sul rischio, con requisiti rigorosi per le applicazioni ad alto rischio, pur non imponendo un'approvazione centralizzata per i modelli di frontiera.
  • Il Regno Unito si è affidato alla cooperazione volontaria attraverso l'UK AI Safety Institute, concentrandosi su collaborazioni di test e valutazione con gli sviluppatori.
  • L'approccio emergente negli Stati Uniti sembra orientarsi verso una supervisione diretta dei sistemi più avanzati, potenzialmente attraverso una revisione preventiva prima del rilascio.

I legislatori hanno iniziato ad esaminare più attentamente queste questioni, con audizioni al Congresso ad aprile sulla sicurezza e la governance dell'IA, sebbene non sia ancora stata avanzata alcuna legislazione completa.

Se implementato, un sistema statunitense di revisione preventiva dei farmaci rappresenterebbe un passo avanti verso un intervento più tempestivo, ponendo la supervisione nel momento in cui i rischi possono essere previsti, anziché dopo che si sono manifestati.

Una simile mossa potrebbe stabilire uno standard globale informale, soprattutto considerando la concentrazione di importanti sviluppatori di intelligenza artificiale negli Stati Uniti. Allo stesso tempo, solleva la possibilità che le aziende possano spostare parte dello sviluppo o dell'implementazione in regioni con minori restrizioni.

La sfida per i responsabili politici consiste nel bilanciare l'innovazione con la gestione del rischio in un settore in cui le capacità si evolvono rapidamente e le conseguenze di un uso improprio potrebbero essere di vasta portata.

Per ora, le misure di sicurezza più concrete rimangono volontarie. Aziende come Anthropic stanno limitando l'accesso a sistemi sensibili, mentre organizzazioni come l'UK AI Safety Institute continuano a condurre valutazionident .

La formalizzazione dell'approccio statunitense e l'eventuale adesione di altri Paesi a tale approccio saranno fattori chiave nel definire la regolamentazione dell'intelligenza artificiale nei prossimi anni.

Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO