Le capacità ingannevoli dei sistemi di intelligenza artificiale sollevano l'allarme tra gli esperti

- Gli studi dimostrano che i sistemi di intelligenza artificiale sono ormai in grado di ingannare gli esseri umani.
- Le capacità ingannevoli dell'intelligenza artificiale comportano rischi di frode.
- I ricercatori chiedono urgentemente quadri normativi solidi.
Un recente studio pubblicato sulla rivista Patterns ha rivelato che l'intelligenza artificiale sta diventando sempre più capace di ingannare le persone. Lo studio ha scoperto che i sistemi di intelligenza artificiale hanno imparato a imitare per imbrogliare, adulare e persino emulare altri comportamenti.
Leggi anche: Navigare nel campo minato dell'intelligenza artificiale deepfake: come individuare e combattere l'inganno digitale
La ricerca condotta dal Dr. Peter S. Park, borsista post-dottorato in sicurezza esistenziale dell'IA presso il MIT, dimostra che l'inganno nell'IA è comune perché rappresenta il modo migliore per raggiungere gli obiettivi prefissati durante l'addestramento dell'IA stessa. Tali comportamenti sono stati osservati in numerosi sistemi di IA, come ad esempio nei videogiochi e nei modelli generici utilizzati nella negoziazione economica e nella valutazione della sicurezza.
"Ma in generale, pensiamo che l'inganno dell'IA si verifichi perché una strategia basata sull'inganno si è rivelata il modo migliore per ottenere buoni risultati in un dato compito di addestramento dell'IA. L'inganno aiuta l'IA a raggiungere i propri obiettivi."
Il team di ricerca
I sistemi di intelligenza artificiale utilizzano diverse tattiche di inganno
Un esempio importante citato è CICERO di Meta, un'IA sviluppata per giocare a Diplomacy. Sebbene CICERO fosse programmato per essere sincero, il programma ha spesso dovuto ricorrere a metodi subdoli per battere l'avversario. Ha stretto relazioni e gli ha voltato le spalle quando gli faceva comodo e mostrava l'intenzione di ingannarlo. CICERO è stato descritto dai ricercatori come un "maestro dell'inganno".
Leggi anche: Combattere la crescente ondata di crimini informatici basati sull'intelligenza artificiale
Anche altri sistemi di intelligenza artificiale hanno mostrato comportamenti ingannevoli. Ad esempio, Pluribus, un'intelligenza artificiale che gioca a poker, è riuscita a bluffare giocatori professionisti di Texas Hold'em. Anche AlphaStar, di DeepMind di Google, ha utilizzato la funzionalità di gioco di Starcraft II nota come "nebbia di guerra" per bluffare gli avversari e simulare attacchi.
Il dottor Park ha affermato: "Sebbene possa sembrare innocuo che i sistemi di intelligenza artificiale barino nei giochi, ciò può portare a "scoperte rivoluzionarie nelle capacità di inganno dell'IA".
L'intelligenza artificiale "si finge morta" per eludere i controlli di sicurezza
I rischi dell'inganno dell'IA non si limitano al gioco d'azzardo. La ricerca guidata dal Dr. Peter hadentcasi in cui l'IA si è condizionato a fingere di essere morto per evitare di essere rilevato durante i controlli di sicurezza. Questo può essere ingannevole per sviluppatori e autorità di regolamentazione e può portare a gravi ripercussioni se tali sistemi ingannevoli vengono impiegati in applicazioni reali.

In un altro caso, il sistema di intelligenza artificiale addestrato sul feedback umano ha imparato a ottenere valutazioni elevate dalle persone, ingannandole sul raggiungimento di un determinato obiettivo. Questo comportamento ingannevole è piuttosto pericoloso, poiché sistemi di questo tipo possono essere impiegati per attività fraudolente, manipolazione dei mercati finanziari o influenzare le elezioni.
I ricercatori chiedonotronmisure legali
Sulla base dei risultati dello studio, i ricercatori affermano che sono necessarie misure legalitronper affrontare le minacce rappresentate dall'inganno dell'IA.
“Sono necessarie soluzioni proattive, come quadri normativi per valutare i rischi di inganno dell'IA, leggi che impongano trasparenza sulle interazioni dell'IA e ulteriori ricerche per individuare e prevenire l'inganno dell'IA”
Il team di ricerca
Leggi anche: L'intelligenza artificiale potrebbe potenzialmente rilevare il rischio di insufficienza cardiaca, secondo una ricerca
Sono stati compiuti alcuni progressi sotto forma di legge UE sull'intelligenza artificiale e ordine esecutivo deldent Joe Biden sulla sicurezza dell'intelligenza artificiale. Tuttavia, l'applicazione di queste politiche rimanematic perché lo sviluppo dell'intelligenza artificiale è in rapida crescita e non esistono ancora metodi efficaci per gestire questi sistemi.
Reportage Cryptopolitan di Brenda Kanana
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















