Caricamento...

Washington determinata a governare l’IA: qual è il piano?

TL;DR

  • I legislatori statunitensi sono alle prese con come regolamentare il fiorente campo dell’intelligenza artificiale (AI), ma il consenso è tutt’altro che certo.
  • Alcune proposte si concentrano su applicazioni di intelligenza artificiale ad alto rischio come quelle in medicina e finanza, mentre altre sostengono normative più ampie per prevenire discriminazioni e violazioni dei diritti civili.
  • L’ascesa dell’intelligenza artificiale generativa ha alimentato l’urgenza di normative, portando a incontri con amministratori delegati tecnologici di alto profilo e a un maggiore impegno del Congresso.

Nei vivaci corridoi di Washington, il dibattito sulla regolamentazione dell’intelligenza artificiale (AI) sta cominciando a raggiungere il culmine.

Con delle tecnologie , i legislatori statunitensi sono alle prese con come creare una struttura di protezione per questo campo nascente, ma è chiaro che il consenso è lungi dall’essere imminente.

Washington bilancia sicurezza e innovazione

Dal Campidoglio alla Silicon Valley, si esprimono opinioni diverse su come dovrebbe essere regolamentata l’intelligenza artificiale. Alcuni legislatori sostengono che si concentri l’attenzione sulle applicazioni di intelligenza artificiale ad alto rischio, come quelle utilizzate nei settori medico e finanziario.

Questo “approccio basato sul rischio”, sostenuto da sostenitori della comunità imprenditoriale come IBM e la Camera di commercio degli Stati Uniti, regolerebbe solo le applicazioni di intelligenza artificiale che comportano rischi significativi per la vita o i mezzi di sostentamento delle persone.

Altri stanno spingendo per un mandato più ampio, sostenendo regolamenti che garantiscano che l’intelligenza artificiale non venga utilizzata per violare i diritti civili o perpetuare la discriminazione.

Il nocciolo di questo dibattito dipende dalla questione se la regolamentazione debba prendere di mira gli sviluppatori di intelligenza artificiale, come OpenAI, la startup dietro il fenomeno ChatGPT, o le aziende che implementano questi sistemi di intelligenza artificiale per interagire con i consumatori.

L’ascesa dell’intelligenza artificiale generativa, che utilizza i dati per generare nuovi contenuti, sta alimentando l’urgenza della regolamentazione. La popolarità di tale tecnologia non solo ha trac l’attenzione degli appassionati di tecnologia, ma ha anche sollevato preoccupazioni su potenziali usi impropri, come frodi agli esami, disinformazione e nuove truffe.

Ciò ha dato luogo a una serie di incontri, culminati in un recente incontro alla Casa Bianca con gli amministratori delegati di OpenAI, Microsoft Corp e Alphabet Inc. Anche il Congresso è stato stimolato all’azione, con il personale di tutta la Camera e del Senato che si è adoperato per per prendere confidenza con questa tecnologia in rapida evoluzione.

Un approccio basato sui valori

Il dibattito normativo statunitense va oltre la questione del rischio. Il senatore democratico Michael Bennet sostiene un “approccio basato sui valori” alla regolamentazione, sottolineando la necessità di dare priorità alla privacy, alle libertà civili e ai diritti.

Bennet ha proposto un disegno di legge che chiede la creazione di una task force governativa sull’intelligenza artificiale e ha espresso preoccupazione per il fatto che le normative basate sul rischio potrebbero essere troppo rigide per cogliere i pericoli più sottili.

Un primo esempio è il potenziale uso improprio dell’intelligenza artificiale nei sistemi di raccomandazione dei contenuti, che possono inavvertitamente promuovere ideologie dannose.

Inoltre, Bennet e altri legislatori hanno espresso preoccupazione per il fatto che l’intelligenza artificiale venga utilizzata per discriminare, forse nell’assegnazione di mutui a basso interesse.

Presso OpenAI le discussioni hanno preso in considerazione la possibilità di un controllo più ampio. Il ricercatore OpenAI Cullen O'Keefe ha proposto la creazione di un'agenzia che richiederebbe alle aziende di ottenere licenze prima di addestrare potenti modelli di intelligenza artificiale o gestire data center.

Questa ipotetica agenzia, denominata Office for AI Safety and Infrastructure Security (OASIS), potrebbe essere l’avanguardia della regolamentazione dell’IA.

Nonostante la moltitudine di voci, la strada verso il consenso rimane ripida. Le imminenti elezioni dent e altre questioni urgenti come l’innalzamento del tetto del debito aggiungono complessità alla situazione.

Mentre il governo degli Stati Uniti attraversa tempi incerti, la comunità globale attende con impazienza le azioni iniziali verso l’implementazione di normative complete ed etiche per l’intelligenza artificiale, garantendo la sua integrazione sicura ed equa nella società.

Dichiarazione di non responsabilità:  le informazioni fornite non costituiscono consigli di trading. Cryptopolitan.com non si assume alcuna responsabilità per eventuali investimenti effettuati sulla base delle informazioni fornite in questa pagina. Raccomandiamo tron dent e/o la consultazione di un professionista qualificato prima di prendere qualsiasi decisione .

Condividi il link:

Jai Hamid

Jai Hamid è uno scrittore appassionato con un vivo interesse per la tecnologia blockchain, l'economia globale e la letteratura. Dedica la maggior parte del suo tempo all'esplorazione del potenziale di trasformazione delle criptovalute e delle dinamiche delle tendenze economiche mondiali.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta

Notizie correlate

Hong Kong e Stati Uniti: quale mercato degli ETF sulle criptovalute offre una migliore diversificazione
Criptopolita
Iscriviti a CryptoPolitan