Un recente studio pubblicato sulla rivista Patterns ha rivelato che l'intelligenza artificiale sta diventando sempre più capace di ingannare le persone. Lo studio ha scoperto che i sistemi di intelligenza artificiale hanno imparato a imitare per imbrogliare, adulare e persino emulare altri comportamenti.
Leggi anche: Navigare nel campo minato dell'intelligenza artificiale deepfake: come individuare e combattere l'inganno digitale
La ricerca condotta dal Dott. Peter S. Park, ricercatore post-dottorato in sicurezza esistenziale dell'IA al MIT, dimostra che l'inganno da parte dell'IA è comune perché rappresenta il modo migliore per raggiungere gli obiettivi prefissati durante l'addestramento dell'IA. Tali comportamenti sono stati osservati in numerosi sistemi di IA, come i videogiochi e i modelli generici utilizzati nella contrattazione economica e nella valutazione della sicurezza.
"Ma in generale, pensiamo che l'inganno dell'IA si verifichi perché una strategia basata sull'inganno si è rivelata il modo migliore per ottenere buoni risultati in un dato compito di addestramento dell'IA. L'inganno aiuta l'IA a raggiungere i propri obiettivi."
Il team di ricerca
I sistemi di intelligenza artificiale utilizzano diverse tattiche di inganno
Un esempio importante citato è CICERO di Meta, un'IA sviluppata per giocare a Diplomacy. Sebbene CICERO fosse programmato per essere sincero, il programma ha spesso dovuto ricorrere a metodi subdoli per battere l'avversario. Ha stretto relazioni e gli ha voltato le spalle quando gli faceva comodo e mostrava l'intenzione di ingannarlo. CICERO è stato descritto dai ricercatori come un "maestro dell'inganno".
Leggi anche: Combattere la crescente ondata di crimini informatici basati sull'intelligenza artificiale
Anche altri sistemi di intelligenza artificiale hanno mostrato comportamenti ingannevoli. Ad esempio, Pluribus, un'intelligenza artificiale che gioca a poker, è riuscita a bluffare giocatori professionisti di Texas Hold'em. Anche AlphaStar, di DeepMind di Google, ha utilizzato la funzionalità di gioco di Starcraft II nota come "nebbia di guerra" per bluffare gli avversari e simulare attacchi.
Il dott. Park ha affermato: "Sebbene possa sembrare innocuo che i sistemi di intelligenza artificiale barino nei giochi, ciò può portare a "svolte innovative nelle capacità ingannevoli dell'intelligenza artificiale".
L'intelligenza artificiale "si finge morta" per eludere i controlli di sicurezza
I rischi dell'inganno dell'IA non si limitano al gioco d'azzardo. La ricerca guidata dal Dr. Peter hadentcasi in cui l'IA si è condizionato a fingere di essere morto per evitare di essere rilevato durante i controlli di sicurezza. Questo può essere ingannevole per sviluppatori e autorità di regolamentazione e può portare a gravi ripercussioni se tali sistemi ingannevoli vengono impiegati in applicazioni reali.

In un altro caso, il sistema di intelligenza artificiale addestrato sul feedback umano ha imparato a ottenere valutazioni elevate dalle persone, ingannandole sul raggiungimento di un determinato obiettivo. Questo comportamento ingannevole è piuttosto pericoloso, poiché sistemi di questo tipo possono essere impiegati per attività fraudolente, manipolazione dei mercati finanziari o influenzare le elezioni.
I ricercatori chiedonotronmisure legali
Sulla base dei risultati dello studio, i ricercatori affermano che sono necessarie misure legalitronper affrontare le minacce rappresentate dall'inganno dell'IA.
“Sono necessarie soluzioni proattive, come quadri normativi per valutare i rischi di inganno dell'IA, leggi che impongano trasparenza sulle interazioni dell'IA e ulteriori ricerche per individuare e prevenire l'inganno dell'IA”
Il team di ricerca
Leggi anche: L'intelligenza artificiale potrebbe potenzialmente rilevare il rischio di insufficienza cardiaca, secondo una ricerca
Sono stati compiuti alcuni progressi sotto forma di legge UE sull'intelligenza artificiale e ordine esecutivo deldent Joe Biden sulla sicurezza dell'intelligenza artificiale. Tuttavia, l'applicazione di queste politiche rimanematic perché lo sviluppo dell'intelligenza artificiale è in rapida crescita e non esistono ancora metodi efficaci per gestire questi sistemi.
Reportage Cryptopolitan di Brenda Kanana

