ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

New York approva una legge per limitare i disastri catastrofici causati dal malfunzionamento dell'intelligenza artificiale

DiOwotunse AdebayoOwotunse Adebayo
Tempo di lettura: 3 minuti.
New York approva una legge per limitare i disastri catastrofici causati dal malfunzionamento dell'intelligenza artificiale
  • Lo stato di New York ha approvato una legge per impedire ai laboratori di intelligenza artificiale come OpenAI, Google e Anthropic di contribuire a scenari di disastro.
  • Il disegno di legge è in arrivo al governatore dello Stato di New York, che avrà l'ultima parola.
  • I laboratori di intelligenza artificiale esprimono le loro lamentele sul disegno di legge, sottolineando che potrebbe rappresentare un rischio per le aziende più piccole.

I legislatori di New York hanno approvato una legge per limitare i disastri causati dall'intelligenza artificiale. Secondo la legge, lo Stato vuole impedire che i modelli di intelligenza artificiale creati da aziende come OpenAI, Google e Anthropic contribuiscano a scenari di disastro.

Secondo il disegno di legge, questi scenari includono la morte o il ferimento di oltre 100 persone o danni o perdite superiori a 1 miliardo di dollari. Il disegno di legge, noto come RAISE Act, rappresenta una vittoria per i movimenti che promuovono la sicurezza dell'intelligenza artificiale. I movimenti hanno perso slancio negli ultimi anni, poiché la Silicon Valley e l'amministrazione Trump hanno continuato a dare priorità a velocità e innovazione.

I sostenitori della sicurezza, tra cui il premio Nobel Geoffrey Hinton e il pioniere della ricerca sull'intelligenza artificiale Yoshua Bengio, sono alla base del RAISE Act. Se alla fine venisse approvato, il disegno di legge stabilirebbe la prima serie di standard di trasparenza legalmente obbligatori per i principali laboratori di intelligenza artificiale negli Stati Uniti.

New York valuta il RAISE Act per limitare i disastri causati dall'intelligenza artificiale

Il RAISE Act presenta alcune delle stesse disposizioni e obiettivi del controverso disegno di legge sulla sicurezza dell'intelligenza artificiale SB 1047 in California, che alla fine è stato posto sotto veto.

Tuttavia, uno dei promotori del RAISE Act, il senatore dello Stato di New York Andrew Gounardes, ha dichiarato in un'intervista di aver progettato il disegno di legge in modo da non soffocare l'innovazione tra le startup o i ricercatori accademici, una critica comune alla SB 1047. "La finestra temporale per implementare misure di protezione si sta rapidamente riducendo, data la rapidità con cui questa tecnologia si sta evolvendo", ha affermato il senatore Gounardes.

Il senatore ha anche affermato che la maggior parte degli esperti del settore dell'intelligenza artificiale ha riconosciuto questi rischi, uno sviluppo che ha definito "allarmante". Nel frattempo, il RAISE Act è ora in arrivo sulla scrivania della governatrice di New York Kathy Hochul, che potrebbe firmarlo o rinviarlo per emendamenti. Un'altra opzione sarebbe quella di porre il veto al disegno di legge, il che è probabile.

Se alla fine verrà approvato, il RAISE Act obbligherà alcuni dei più grandi laboratori di intelligenza artificiale al mondo a pubblicare report sulla sicurezza dei loro modelli di intelligenza artificiale di punta. Il disegno di legge obbliga inoltre i laboratori di intelligenza artificiale a segnalare eventualidentdi sicurezza riguardanti il ​​comportamento dei modelli di intelligenza artificiale o il furto di modelli di intelligenza artificiale da parte di malintenzionati, qualora ciò si verifichi.

Se le aziende tecnologiche non rispettano questi standard, il RAISE Act autorizza il procuratore generale dello Stato di New York a imporre loro sanzioni civili fino a 30 milioni di dollari.

Il RAISE Act mira a regolamentare i laboratori di intelligenza artificiale

Il RAISE Act è stato progettato per regolamentare le più grandi aziende di intelligenza artificiale a livello globale, comprese quelle con sede in California come OpenAI e Google, e quelle con sede in Cina, come DeepSeek e Alibaba. I requisiti del disegno di legge includono una clausola obbligatoria che si applica alle aziende che hanno utilizzato più di 100 milioni di dollari in risorse informatiche per addestrare i propri modelli di intelligenza artificiale e sono disponibili per i residentidentNew York.

Sebbene per certi versi simile alla SB 1047, la legge RAISE affronta alcuni dei precedenti progetti di legge sulla sicurezza dell'IA.

Ad esempio, nessuna clausola impone agli sviluppatori di modelli di intelligenza artificiale di dotare i propri modelli di un kill switch , né ritiene le aziende che li addestrano in seguito responsabili di eventuali danni critici. Ciononostante, secondo il co-sponsor del RAISE Act, il membro dell'Assemblea dello Stato di New York Alex Bores, il quale ha definito la resistenza non sorprendente, ma ha aggiunto che il RAISE Act non limiterà in alcun modo la capacità di sviluppo delle aziende tecnologiche.

"Il NY RAISE Act è l'ennesimo stupido, stupido disegno di legge sull'intelligenza artificiale a livello statale che danneggerà solo gli Stati Uniti in un momento in cui i nostri avversari sono in vantaggio", ha affermato Anjney Midha, partner generale di Andreessen Horowitz, in un post di venerdì su X.

Andreessen Horowitz e l'incubatore di startup Y Combinator si sono opposti fermamente alla SB 1047. Inoltre, anche il co-fondatore di Anthropic, Jack Clark, ha espresso le sue lamentele sull'ampiezza del RAISE Act, sottolineando che potrebbe presentare rischi per le aziende più piccole.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan/ non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamotronvivamente di effettuare ricerche indipendentident di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO