I repubblicani della Camera hanno inserito una clausola controversa nel loro ampio pacchetto fiscale e spedente che impedirebbe effettivamente gli stati dalla regolazione delle tecnologie di intelligenza artificiale per un intero decennio.
La disposizione appare come una "moratoria" di dieci anni sulle regole statali e locali dell'IA, nascosta all'interno della legislazione chedent Trump ha promosso come la sua "grande, bella" agenda. Se messo in atto, sovrascriverebbe gli statuti statali esistenti e futuri progettati per proteggere i cittadini dalla discriminazione guidata dall'IA, dalle invasioni della privacy e da altri rischi, lasciando potenzialmente le vittime senza ricorso.
Oltre un centinaio di organizzazioni si oppongono alla proposta dei repubblicani
Tuttavia, oltre 100 organizzazioni di difesa, centri accademici e coalizioni dei dipendenti hanno condannato pubblicamente la misura, avvertendo che avrebbe spogliato gli stati della capacità di far rispettare qualsiasi leggi che governano i modelli di intelligenza artificiale, i sistemi Ai-guidati o gli strumenti decisionali automatizzati, anche quando tali sistemi infliggono danni dimostrabili.
In una lettera consegnata lunedì ai leader del Congresso, tra cui il relatore Mike Johnson e il leader democratico Hakeem Jeffries, le organizzazioni sostengono che questo divieto di coperta concederebbe alle società una licenza per distribuire tecnologie di intelligenza artificiale senza responsabilità.
"Questa moratoria significherebbe che anche se un'azienda progetta deliberatamente un algoritmo che provoca danni prevedibili, indipendentemente da quanto intenzionale o egregio è la cattiva condotta o quanto devastanti le conseguenze, la società che fa o usa quella cattiva tecnologia sarebbe non responsabile per i legislatori e il pubblico."
La lettera recita.
Tra i 141 firmatari ci sono importanti centri di legge e politica, Cornell University, Georgetown Law's Center on Privacy and Technology, sostenitori dei diritti civili come il Southern Poverty Law Center, sindacati tra cui l'Unione dei lavoratori dell'alfabeto e gruppi di dipendenti focalizzati sul clima come i dipendenti amazzonici per la giustizia climatica.
La loro voce combinata sottolinea quanto sono diventate diffuse e bipartisan per lo spiegamento dell'intelligenza artificiale incontrollato, che si estende da accademici e organizzazioni non profit ai lavoratori tecnologici in prima linea.
Emily Peterson-Cassin , direttrice del potere aziendale presso il progresso della domanda senza scopo di lucro, che ha contribuito a redigere la lettera, chiama la clausola di precezione "un pericoloso omaggio per i grandi amministratori delegati che hanno scommesso tutto su una società in cui l'intelligenza artificiale incompiuta e non contabile è prematuramente forzata in ogni aspetto della nostra vita".
Ha esortato i leader del Congresso ad ascoltare l'interesse pubblico piuttosto che soccombere alle "grandi donazioni della campagna tecnologica".
Gli Stati considerano le proprie leggi sull'intelligenza artificiale nonostante i piani dei repubblicani
La disposizione di premesse statale arriva in mezzo a un rollback più ampio delle salvaguardie federali di intelligenza artificiale. Poco dopo essere entrato in carica a gennaio,dent Trump ha annullato un ampio ordine esecutivo dell'era Biden che aveva istituito Guardrails per lo sviluppo dell'intelligenza artificiale.
Ha anche annunciato i piani di questo mese per sollevare controlli di esportazione su chip AI avanzate, le mosse che lui e i suoi alleati sostengono che sono necessari per mantenere la leadership americana nel settore, in particolare se la concorrenza con la Cina si intensifica.
"La regolamentazione eccessiva del settore dell'IA potrebbe uccidere un'industria trasformativa proprio mentre sta decollando", Vice dent JD Vance ha detto ai partecipanti al Summit di azione di intelligenza artificiale a febbraio.
Ma molti stati hanno risposto al vuoto nella supervisione federale elaborando le proprie regole AI per applicazioni ad alto rischio. del Colorado del punto di riferimento del 2024 richiede alle aziende di proteggersi da pregiudizi algoritmici nelle assunzioni e nei prestiti e di avvisare i consumatori quando interagiscono con un sistema di intelligenza artificiale. La recente legge del New Jersey crea sanzioni civili e penali per la diffusione dannosa di profondi generali.
I legislatori dell'Ohio stanno prendendo in considerazione la legislazione che impongono filigrane su contenuti prodotti dall'IA e fuorileggedentfrode per la tecnologia DeepFake. Diversi stati hanno anche preso di mira la disinformazione generata dalle elezioni.
Nel frattempo, la regolamentazione di alcune applicazioni di intelligenza artificiale ha attirato un raro accordo bipartisan a Washington. Il Congresso di questo mese ha approvato la legge Take It Down, chedent che Trump avrebbe dovuto firmare in legge il 19 maggio 2025, rendendo la distribuzione non consensuale di immagini esplicite e generate dall'IA un crimine federale.
La misura enjavviato il supporto di entrambe le parti, riflettendo l'allarme diffuso per la rappresentazione digitale e le molestie online.
Al contrario, il divieto di dieci anni del conto del bilancio della Camera sulle leggi di AI statale fermerà questo tipo di regolamentazione incrementale, specifica del settore al suo inizio, proteggendo gli sviluppatori di algoritmo dalla responsabilità anche quando i loro prodotti danneggiano individui o comunità.
Ma alcuni principali dirigenti di intelligenza artificiale hanno richiesto pubblicamente una maggiore supervisione del governo. Nel 2023, il CEO di Openi Sam Altman ha testimoniato davanti a un sottocomitato del Senato che "l'intervento normativo da parte dei governi sarà fondamentale per mitigare i rischi di modelli sempre più potenti".
Le tue notizie crittografiche meritano l'attenzione - Chiave Difference Wire ti mette su oltre 250 siti migliori