ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Il senatore del Colorado stabilirà politiche di sicurezza per l'uso dell'intelligenza artificiale

DiRanda MosesRanda Moses
Tempo di lettura: 2 minuti.
Colorado
  • Il senatore John Hickenlooper del Colorado sta guidando un'iniziativa volta a stabilire standard di sicurezza per i sistemi di intelligenza artificiale. 
  • Sta consultando esperti del settore per elaborare nuove politiche volte a verificare le tecnologie di intelligenza artificiale.
  • L'obiettivo è garantire che i sistemi di intelligenza artificiale siano sicuri e conformi alle normative federali attraverso auditdent e la collaborazione con il Dipartimento del Commercio.

In un passo significativo verso un utilizzo più sicuro dell'IA, il senatore John Hickenlooper del Colorado ha avviato un piano per creare policy di auditing dell'IA. Con l'obiettivo di creare standard chiari per i controlli dei sistemi di IA, Hickenlooper ha contattato esperti del settore e attori chiave per ottenere spunti di riflessione. Questo sforzo mira a guidare l'elaborazione di una legislazione che garantisca l'efficacia e la sicurezza delle tecnologie di IA.

Standard di fabbricazione in Colorado

La strategia di Hickenlooper prevede uno sforzo collaborativo guidato dal Dipartimento del Commercio. L'obiettivo è sviluppare standard volontari che fungano da guida per auditdent delle tecnologie di intelligenza artificiale. In un discorso di febbraio, Hickenlooper ha sottolineato l'importanza della supervisione esterna per il settore dell'intelligenza artificiale, citando la necessità di evitare l'autoregolamentazione, dati i potenziali rischi connessi. 

"Se non stiamo attenti e non orientiamo l'intelligenza artificiale in questa direzione, potremmo finire per sostituire un numero enorme di lavoratori senza considerare cosa faranno in seguito. Questo è solo un esempio delle migliaia di decisioni che vengono prese oggi e che avranno conseguenze per generazioni", ha affermato il senatore Hickenlooper. 

Coinvolgendo terze parti qualificate nella verifica dei sistemi di intelligenza artificiale, l'iniziativa mira a garantire la conformità alle leggi federali e a tutelarsi da danni imprevisti. 

Dettagli del questionario

L'ufficio del senatore ha diffuso un questionario che copre gli aspetti chiave dell'audit dei sistemi di intelligenza artificiale, tra cui la frequenza, l'ambito degli audit, i requisiti di trasparenza, la conformità e l'ecosistema di audit complessivo.

Questo questionario, raccolto da Nextgov/FCW, è progettato per raccogliere informazioni dettagliate che aiuteranno defistandard di audit efficaci e pratici. Uno dei punti focali è come questi standard potrebbero essere adattati alle diverse fasi dello sviluppo del software, affrontando le sfide specifiche poste dai processi di sviluppo a monte e a valle.

La pratica di valutare gli input e gli output di un sistema di intelligenza artificiale da parte di una terza parte per ottenere risultati sicuri e di alta qualità è nota come auditing dell'intelligenza artificiale. L'ufficio di Hickenlooper ha verificato l'origine delle domande e ha dichiarato che saranno utilizzate per orientare future iniziative legislative e il quadro normativo da lui presentato all'inizio di febbraio.

Hickenlooper pone una domanda molto approfondita in merito all'ambito dell'audit. Il legislatore affronta principalmente la questione dello sviluppo a monte rispetto a quello a valle quando pone la questione di come i criteri di audit prospettico debbano essere modificati per gli sviluppatori che operano lungo l'intera architettura del software.

Inoltre, chiede se requisiti aggiuntivi, come l'accesso ai dati di addestramento del modello di intelligenza artificiale, valutazioni dirette degli output del sistema, test di verifica interna e valutazioni qualitative, possano essere incorporati negli standard di auditing dell'intelligenza artificiale. 

Attraverso questo approccio proattivo, Hickenlooper sta gettando le basi per un quadro normativo che promette di rendere le tecnologie di intelligenza artificiale più sicure e affidabili. Ponendo come priorità la trasparenza, la conformità e il benessere della società, questa iniziativa rappresenta un passo fondamentale verso lo sviluppo e l'implementazione responsabili dell'intelligenza artificiale.

Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO