I ricercatori del MIT annunciano un archivio dei rischi dell'intelligenza artificiale
- Ciò ha portato alla creazione di un database di oltre 700 rischi unici di IA
- Il repository aiuterà tutte le parti interessate a prendere decisioni informate sulle loro attività.
- Il MIT ha classificato i rischi dell'IA in sette diversi ambiti, tra cui la disinformazione e gli attori malintenzionati, tra gli altri.
I ricercatori del MIT e altre organizzazioni hanno creato l'AI Risk Repository, un ampio database di rischi documentati aggravati dai sistemi di intelligenza artificiale. Questo avviene in un momento in cui la tecnologia si sta evolvendo a un ritmo rapido, che è anche il caso associato ai rischi associati all'utilizzo di sistemi di intelligenza artificiale.
L'obiettivo del repository è aiutare i decisori di varie istituzioni, quali governo, ricerca, aziende e industria, a valutare i rischi emergenti associati all'intelligenza artificiale, nonostante questa abbia capacità trasformative.
Il repository fornisce una documentazione ordinata dei rischi dell'IA
Sebbene diverse organizzazioni e ricercatori abbiano riconosciuto l'importanza di risolvere i rischi legati all'intelligenza artificiale, gli sforzi per documentare e categorizzare tali rischi sono stati, in larga misura, poco efficaci, dando luogo a un panorama frammentato di sistemi di classificazione contrastanti.
"Volevamo una panoramica completa dei rischi legati all'IA da utilizzare come lista di controllo", ha dichiarato a VentureBeat.
"Ma quando abbiamo esaminato la letteratura scientifica, abbiamo scoperto che le classificazioni dei rischi esistenti erano come i pezzi di un puzzle: singolarmente interessanti e utili, ma incomplete."
Slattery.
L' AI Risk Repository affronta la sfida di cui sopra fondendo le informazioni provenienti da 43 tassonomie esistenti, tra cui articoli sottoposti a revisione paritaria, pre-stampe, atti di conferenze e report.
Questo scrupoloso processo di selezione ha portato alla creazione di un database con oltre 700 rischi esclusivi. Il repository utilizza un sistema di classificazione dimensionale bidimensionale.
In primo luogo, i rischi vengono classificati in base alle loro cause, prendendo in considerazione l'entità responsabile (umana o IA), l'intento (non intenzionale o internazionale) e la tempistica (post-sviluppo o pre-implementazione).
Secondo il MIT, questa categorizzazione di base aiuta a comprendere le situazioni e i meccanismi attraverso i quali possono emergere i rischi dell'IA.
I ricercatori del MIT hanno classificato i rischi dell'intelligenza artificiale in sette
D'altro canto, i rischi sono classificati in sette diversi ambiti, tra cui disinformazione e attori malintenzionati, uso improprio, discriminazione e tossicità, privacy e sicurezza.
L'AI Risk Repository è progettato per essere un database vivo e accessibile al pubblico, e le istituzioni possono scaricarlo per utilizzarlo.
I team di ricerca possono pianificare di aggiornare frequentemente il database con nuovi rischi, ultime scoperte e tendenze in evoluzione.
L'AI Risk Repository è inoltre concepito come una risorsa pratica per le aziende di vari settori. Per le istituzioni che sviluppano sistemi di intelligenza artificiale, il repository funge da preziosa checklist per la valutazione e la mitigazione dei rischi.
“Le organizzazioni che utilizzano l'intelligenza artificiale potrebbero trarre vantaggio dall'impiego del database dei rischi e delle tassonomie dell'intelligenza artificiale come base utile per valutare in modo completo la propria esposizione al rischio e la relativa gestione.”
Ricercatori del MIT.
“Le tassonomie potrebbero rivelarsi utili anche perdentcomportamenti specifici che devono essere adottati per mitigare rischi specifici”, hanno aggiunto i ricercatori.
Ad esempio, un'organizzazione che sta implementando un sistema di assunzione basato sull'intelligenza artificiale può utilizzare il repository per individuare i potenziali rischi associati a discriminazione e pregiudizi.
Pertanto, un'azienda che utilizza l'intelligenza artificiale per la moderazione dei contenuti può sfruttare il dominio della "disinformazione" per comprendere i potenziali rischi legati ai contenuti generati dall'intelligenza artificiale e stabilire le necessarie reti di sicurezza.
I ricercatori del MIT hanno collaborato con i colleghi dell'Università del Queensland, del Future of Life Institute, della KU Leuven e della startup di intelligenza artificiale Harmony Intelligence per esaminare i database accademici e recuperare documenti relativi ai rischi dell'intelligenza artificiale.
I ricercatori hanno inoltre rivelato che l'AI Risk Repository fornirà informazioni utili ad altre ricerche man mano chedentindividuate ulteriori lacune che necessitano di attenzione.
"Utilizzeremo questo archivio perdentpotenziali lacune o squilibri nel modo in cui le organizzazioni affrontano i rischi", ha affermato Neil Thompson, responsabile del MIT FutureTech Lab.
Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














