Il governatore della California Gavin Newsom ha posto il veto a un controverso disegno di legge sull'intelligenza artificiale (IA), affermando che soffocherà l'innovazione e non riuscirà a tutelare il pubblico dalle "reali" preoccupazioni della tecnologia. I sostenitori del disegno di legge sottolineano che avrebbe creato alcune delle prime normative nazionali sui modelli di IA su larga scala e avrebbe aperto la strada a leggi nazionali sulla sicurezza dell'IA.
Il 30 settembre, Newsom ha respinto la SB 1047, nota anche come Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, dopo aver ricevuto unatronopposizione dalla Silicon Valley. Il disegno di legge raccomandava test di sicurezza obbligatori per i modelli di intelligenza artificiale e altre misure di sicurezza, che i giganti della tecnologia temevano avrebbero ostacolato l'innovazione.
Newsom ha sostenuto che il disegno di legge si concentrava troppo sulla regolamentazione delle principali aziende di intelligenza artificiale , senza riuscire a proteggere il pubblico dai pericoli "reali" posti dalla nuova tecnologia.
Ha detto:
Al contrario, il disegno di legge applica standard rigorosi anche alle funzioni più basilari, a patto che siano implementate da un sistema di grandi dimensioni. Non credo che questo sia l'approccio migliore per proteggere il pubblico dalle reali minacce poste dalla tecnologia.
– Gavin Newsom
Il senatore critica il veto e lo definisce una battuta d'arresto per la sicurezza pubblica
Il senatore democratico dello Stato, Scott Weiner, autore del disegno di legge, ha descritto il rifiuto come una battuta d'arresto per tutti coloro che credono nella supervisione delle grandi aziende che prendono decisioni cruciali che incidono sulla sicurezza pubblica, sul benessere e sul futuro del pianeta.
La SB 1047 avrebbe imposto agli sviluppatori, inclusi importanti attori come OpenAI, Meta e Google, di implementare un "kill switch" per i loro modelli di intelligenza artificiale e di sviluppare piani per mitigare i rischi estremi. Inoltre, il disegno di legge avrebbe consentito al procuratore generale dello Stato di citare in giudizio gli sviluppatori di intelligenza artificiale nei casi in cui i loro modelli rappresentassero minacce persistenti, come l'acquisizione di una rete di intelligenza artificiale.
Questo disegno di legge prende di mira specificamente i sistemi il cui sviluppo costa più di 100 milioni di dollari e che richiedono un'elevata potenza di elaborazione. Nessun modello di intelligenza artificiale attuale ha raggiunto tale soglia, ma alcuni esperti affermano che la situazione potrebbe cambiare entro il prossimo anno.
Newsom sostiene le normative sull'intelligenza artificiale basate sulla scienza in mezzo alla controversia sulla legge sulla sicurezza
Newsom ha dichiarato di aver consultato i principali esperti di sicurezza dell'IA per aiutare la California a creare normative efficaci che diano priorità a un'analisi scientifica dei potenziali rischi derivanti dallo sviluppo dell'IA. Ha sottolineato che la sua amministrazione continuerà a promuovere solidi protocolli di sicurezza, insistendo sul fatto che le autorità di regolamentazione non devono aspettare una catastrofe di vasta portata per agire.
Nonostante abbia posto il veto alla SB 1047, Newsom ha sottolineato che la sua amministrazione ha firmato oltre 18 progetti di legge relativi alla regolamentazione dell'intelligenza artificiale nel mese scorso.
Prima della decisione di Newsom, il disegno di legge era impopolare tra politici, consulenti e grandi aziende tecnologiche. La Speaker della Camera Nancy Pelosi e aziende come OpenAI hanno affermato che avrebbe ostacolato notevolmente il progresso dell'intelligenza artificiale.
Il responsabile delle politiche in materia di intelligenza artificiale presso l'Abundance Institute, Neil Chilson, ha avvertito che, sebbene il disegno di legge riguardi principalmente i modelli che costano più di 100 milioni di dollari, la sua portata potrebbe essere facilmente ampliata per colpire anche gli sviluppatori più piccoli.
Tuttavia, alcuni sono favorevoli al disegno di legge. Il miliardario Elon Musk, che sta sviluppando il suo modello di intelligenza artificiale chiamato "Grok", è uno dei pochi pesi massimi della tecnologia a sostenere la misura e le leggi più ampie sull'intelligenza artificiale. In un post del 26 agosto su X, Musk ha affermato che la California dovrebbe probabilmente approvare il disegno di legge sulla sicurezza dell'intelligenza artificiale SB 1047, ma ha ammesso che sostenerlo è stata una "decisione difficile".

