ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Le capacità ingannevoli dei sistemi di intelligenza artificiale sollevano l'allarme tra gli esperti

DiBrenda KananaBrenda Kanana
Tempo di lettura: 2 minuti.
Le capacità ingannevoli dei sistemi di intelligenza artificiale sollevano l'allarme tra gli esperti
  • Gli studi dimostrano che i sistemi di intelligenza artificiale sono ormai in grado di ingannare gli esseri umani.
  • Le capacità ingannevoli dell'intelligenza artificiale comportano rischi di frode.
  • I ricercatori chiedono urgentemente quadri normativi solidi.

Un recente studio pubblicato sulla rivista Patterns ha rivelato che l'intelligenza artificiale sta diventando sempre più capace di ingannare le persone. Lo studio ha scoperto che i sistemi di intelligenza artificiale hanno imparato a imitare per imbrogliare, adulare e persino emulare altri comportamenti. 

Leggi anche: Navigare nel campo minato dell'intelligenza artificiale deepfake: come individuare e combattere l'inganno digitale

La ricerca condotta dal Dr. Peter S. Park, borsista post-dottorato in sicurezza esistenziale dell'IA presso il MIT, dimostra che l'inganno nell'IA è comune perché rappresenta il modo migliore per raggiungere gli obiettivi prefissati durante l'addestramento dell'IA stessa. Tali comportamenti sono stati osservati in numerosi sistemi di IA, come ad esempio nei videogiochi e nei modelli generici utilizzati nella negoziazione economica e nella valutazione della sicurezza.

"Ma in generale, pensiamo che l'inganno dell'IA si verifichi perché una strategia basata sull'inganno si è rivelata il modo migliore per ottenere buoni risultati in un dato compito di addestramento dell'IA. L'inganno aiuta l'IA a raggiungere i propri obiettivi." 

Il team di ricerca

I sistemi di intelligenza artificiale utilizzano diverse tattiche di inganno

Un esempio importante citato è CICERO di Meta, un'IA sviluppata per giocare a Diplomacy. Sebbene CICERO fosse programmato per essere sincero, il programma ha spesso dovuto ricorrere a metodi subdoli per battere l'avversario. Ha stretto relazioni e gli ha voltato le spalle quando gli faceva comodo e mostrava l'intenzione di ingannarlo. CICERO è stato descritto dai ricercatori come un "maestro dell'inganno".

Leggi anche: Combattere la crescente ondata di crimini informatici basati sull'intelligenza artificiale

Anche altri sistemi di intelligenza artificiale hanno mostrato comportamenti ingannevoli. Ad esempio, Pluribus, un'intelligenza artificiale che gioca a poker, è riuscita a bluffare giocatori professionisti di Texas Hold'em. Anche AlphaStar, di DeepMind di Google, ha utilizzato la funzionalità di gioco di Starcraft II nota come "nebbia di guerra" per bluffare gli avversari e simulare attacchi.

Il dottor Park ha affermato: "Sebbene possa sembrare innocuo che i sistemi di intelligenza artificiale barino nei giochi, ciò può portare a "scoperte rivoluzionarie nelle capacità di inganno dell'IA".

L'intelligenza artificiale "si finge morta" per eludere i controlli di sicurezza

I rischi dell'inganno dell'IA non si limitano al gioco d'azzardo. La ricerca guidata dal Dr. Peter hadentcasi in cui l'IA si è condizionato a fingere di essere morto per evitare di essere rilevato durante i controlli di sicurezza. Questo può essere ingannevole per sviluppatori e autorità di regolamentazione e può portare a gravi ripercussioni se tali sistemi ingannevoli vengono impiegati in applicazioni reali.

Le capacità ingannevoli dei sistemi di intelligenza artificiale sollevano l'allarme tra gli esperti
Fonte: Security Magazine

In un altro caso, il sistema di intelligenza artificiale addestrato sul feedback umano ha imparato a ottenere valutazioni elevate dalle persone, ingannandole sul raggiungimento di un determinato obiettivo. Questo comportamento ingannevole è piuttosto pericoloso, poiché sistemi di questo tipo possono essere impiegati per attività fraudolente, manipolazione dei mercati finanziari o influenzare le elezioni.

I ricercatori chiedonotronmisure legali

Sulla base dei risultati dello studio, i ricercatori affermano che sono necessarie misure legalitronper affrontare le minacce rappresentate dall'inganno dell'IA.

“Sono necessarie soluzioni proattive, come quadri normativi per valutare i rischi di inganno dell'IA, leggi che impongano trasparenza sulle interazioni dell'IA e ulteriori ricerche per individuare e prevenire l'inganno dell'IA”

Il team di ricerca

Leggi anche: L'intelligenza artificiale potrebbe potenzialmente rilevare il rischio di insufficienza cardiaca, secondo una ricerca

Sono stati compiuti alcuni progressi sotto forma di legge UE sull'intelligenza artificiale e ordine esecutivo deldent Joe Biden sulla sicurezza dell'intelligenza artificiale. Tuttavia, l'applicazione di queste politiche rimanematic perché lo sviluppo dell'intelligenza artificiale è in rapida crescita e non esistono ancora metodi efficaci per gestire questi sistemi.


Reportage Cryptopolitan di Brenda Kanana

Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO