I repubblicani della Camera hanno inserito una clausola controversa nel loro ampio pacchetto di misure fiscali e di spesa che di fatto impedirebbe agli stati di regolamentare le tecnologie di intelligenza artificiale per un intero decennio.
La disposizione appare come una "moratoria" decennale sulle norme statali e locali in materia di intelligenza artificiale, inserita all'interno di una legislazione che ildent Trump ha promosso come la sua "grande, splendida" agenda. Se promulgata, prevarrebbe sugli statuti statali esistenti e futuri progettati per proteggere i cittadini dalla discriminazione, dalle violazioni della privacy e da altri rischi causati dall'intelligenza artificiale, lasciando potenzialmente le vittime senza possibilità di ricorso.
Oltre cento organizzazioni si oppongono alla proposta dei repubblicani
Tuttavia, oltre 100 organizzazioni di difesa dei diritti, centri accademici e coalizioni di dipendenti hanno pubblicamente condannato la misura, avvertendo che priverebbe gli stati della capacità di far rispettare qualsiasi legge che regoli i modelli di intelligenza artificiale, i sistemi basati sull'intelligenza artificiale o gli strumenti di processo decisionale automatizzato, anche quando tali sistemi infliggono danni dimostrabili.
In una lettera consegnata lunedì ai leader del Congresso, tra cui il presidente Mike Johnson e il leader democratico Hakeem Jeffries, le organizzazioni sostengono che questo divieto assoluto concederebbe alle aziende la licenza di implementare tecnologie di intelligenza artificiale non verificate senza responsabilità.
"Questa moratoria significherebbe che anche se un'azienda progettasse deliberatamente un algoritmo che causa danni prevedibili, indipendentemente da quanto intenzionale o grave fosse la condotta scorretta o da quanto devastanti fossero le conseguenze, l'azienda che crea o utilizza quella tecnologia dannosa non sarebbe tenuta a rispondere ai legislatori e al pubblico".
La lettera recita:.
Tra i 141 firmatari figurano importanti centri di diritto e politica, la Cornell University, il Center on Privacy and Technology della Georgetown Law, sostenitori dei diritti civili come il Southern Poverty Law Center, sindacati tra cui l'Alphabet Workers Union e gruppi di dipendenti impegnati nella lotta al clima come Amazon Employees for Climate Justice.
Le loro voci unite sottolineano quanto siano diventate diffuse e bipartisan le preoccupazioni circa l'impiego incontrollato dell'intelligenza artificiale, che spaziano dal mondo accademico e dalle organizzazioni non profit ai lavoratori in prima linea nel settore tecnologico.
Emily Peterson-Cassin , direttrice del potere aziendale presso l'organizzazione no-profit Demand Progress, che ha contribuito alla stesura della lettera, definisce la clausola di prelazione "un pericoloso regalo ai CEO delle Big Tech che hanno puntato tutto su una società in cui un'intelligenza artificiale incompleta e irresponsabile viene prematuramente imposta in ogni aspetto della nostra vita".
Ha esortato i leader del Congresso a prestare attenzione all'interesse pubblico piuttosto che soccombere alle "donazioni delle campagne elettorali delle Big Tech"
Gli stati stanno valutando le proprie leggi sull'intelligenza artificiale nonostante i piani dei repubblicani
La disposizione sulla prelazione statale arriva nel contesto di una più ampia revoca delle tutele federali in materia di intelligenza artificiale. Subito dopo il suo insediamento a gennaio, ildent Trump ha revocato un ordine esecutivo radicale dell'era Biden che aveva stabilito limiti per lo sviluppo dell'intelligenza artificiale.
Questo mese ha anche annunciato l'intenzione di eliminare i controlli sulle esportazioni di chip di intelligenza artificiale avanzati, misure che lui e i suoi alleati ritengono necessarie per mantenere la leadership degli Stati Uniti nel settore, soprattutto ora che la concorrenza con la Cina si intensifica.
"Un'eccessiva regolamentazione del settore dell'intelligenza artificiale potrebbe uccidere un settore in trasformazione proprio mentre sta decollando", ha dent JD Vance ai partecipanti all'Artificial Intelligence Action Summit di febbraio.
Ma molti stati hanno risposto al vuoto di controllo federale elaborando le proprie regole sull'intelligenza artificiale per le applicazioni ad alto rischio. del Colorado sull'intelligenza artificiale del 2024 impone alle aziende di tutelarsi da distorsioni algoritmiche nelle assunzioni e nei prestiti e di avvisare i consumatori quando interagiscono con un sistema di intelligenza artificiale. La recente legge del New Jersey prevede sanzioni civili e penali per la diffusione fraudolenta di deepfake generati dall'intelligenza artificiale.
I legislatori dell'Ohio stanno valutando una legge che imponga l'uso di filigrane sui contenuti prodotti dall'intelligenza artificiale e metta al bando le frodi d'denttramite la tecnologia deepfake. Diversi stati hanno anche preso di mira la disinformazione generata dall'intelligenza artificiale durante le elezioni.
Nel frattempo, la regolamentazione di alcune applicazioni di intelligenza artificiale ha ottenuto un raro accordo bipartisan a Washington. Il Congresso ha approvato questo mese il Take It Down Act, che ildent Trump avrebbe dovuto promulgare il 19 maggio 2025, rendendo la distribuzione non consensuale di immagini esplicite generate dall'intelligenza artificiale un crimine federale.
La misura enjricevuto il sostegno di entrambe le parti, riflettendo il diffuso allarme riguardo all'impersonificazione digitale e alle molestie online.
Al contrario, il divieto decennale imposto dal disegno di legge di bilancio della Camera sulle leggi statali in materia di intelligenza artificiale bloccherebbe fin dall'inizio questo tipo di regolamentazione incrementale e specifica per settore, proteggendo gli sviluppatori di algoritmi da ogni responsabilità anche quando i loro prodotti danneggiano individui o comunità.
Tuttavia, alcuni importanti dirigenti dell'IA hanno pubblicamente chiesto una maggiore supervisione governativa. Nel 2023, il CEO di OpenAI, Sam Altman, ha testimoniato davanti a una sottocommissione del Senato che "l'intervento normativo da parte dei governi sarà fondamentale per mitigare i rischi di modelli sempre più potenti".

