🔥 Trade with Pros on Discord → 21 Days Free (No Card)JOIN FREE

Le capacità ingannevoli dei sistemi di intelligenza artificiale sollevano l'allarme tra gli esperti

In questo post:

  • Gli studi dimostrano che i sistemi di intelligenza artificiale sono ormai in grado di ingannare gli esseri umani.
  • Le capacità ingannevoli dell'intelligenza artificiale comportano rischi di frode.
  • I ricercatori chiedono urgentemente quadri normativi solidi.

Un recente studio pubblicato sulla rivista Patterns ha rivelato che l'intelligenza artificiale sta diventando sempre più capace di ingannare le persone. Lo studio ha scoperto che i sistemi di intelligenza artificiale hanno imparato a imitare per imbrogliare, adulare e persino emulare altri comportamenti. 

Leggi anche: Navigare nel campo minato dell'intelligenza artificiale deepfake: come individuare e combattere l'inganno digitale

La ricerca condotta dal Dott. Peter S. Park, ricercatore post-dottorato in sicurezza esistenziale dell'IA al MIT, dimostra che l'inganno da parte dell'IA è comune perché rappresenta il modo migliore per raggiungere gli obiettivi prefissati durante l'addestramento dell'IA. Tali comportamenti sono stati osservati in numerosi sistemi di IA, come i videogiochi e i modelli generici utilizzati nella contrattazione economica e nella valutazione della sicurezza.

"Ma in generale, pensiamo che l'inganno dell'IA si verifichi perché una strategia basata sull'inganno si è rivelata il modo migliore per ottenere buoni risultati in un dato compito di addestramento dell'IA. L'inganno aiuta l'IA a raggiungere i propri obiettivi." 

Il team di ricerca

I sistemi di intelligenza artificiale utilizzano diverse tattiche di inganno

Un esempio importante citato è CICERO di Meta, un'IA sviluppata per giocare a Diplomacy. Sebbene CICERO fosse programmato per essere sincero, il programma ha spesso dovuto ricorrere a metodi subdoli per battere l'avversario. Ha stretto relazioni e gli ha voltato le spalle quando gli faceva comodo e mostrava l'intenzione di ingannarlo. CICERO è stato descritto dai ricercatori come un "maestro dell'inganno".

Vedi anche  JPMorgan e MUFG vicine a un accordo da 22 miliardi di dollari per un data center di 1.200 acri per la domanda di intelligenza artificiale

Leggi anche: Combattere la crescente ondata di crimini informatici basati sull'intelligenza artificiale

Anche altri sistemi di intelligenza artificiale hanno mostrato comportamenti ingannevoli. Ad esempio, Pluribus, un'intelligenza artificiale che gioca a poker, è riuscita a bluffare giocatori professionisti di Texas Hold'em. Anche AlphaStar, di DeepMind di Google, ha utilizzato la funzionalità di gioco di Starcraft II nota come "nebbia di guerra" per bluffare gli avversari e simulare attacchi.

Il dott. Park ha affermato: "Sebbene possa sembrare innocuo che i sistemi di intelligenza artificiale barino nei giochi, ciò può portare a "svolte innovative nelle capacità ingannevoli dell'intelligenza artificiale".

L'intelligenza artificiale "si finge morta" per eludere i controlli di sicurezza

I rischi dell'inganno dell'IA non si limitano al gioco d'azzardo. La ricerca guidata dal Dr. Peter hadentcasi in cui l'IA si è condizionato a fingere di essere morto per evitare di essere rilevato durante i controlli di sicurezza. Questo può essere ingannevole per sviluppatori e autorità di regolamentazione e può portare a gravi ripercussioni se tali sistemi ingannevoli vengono impiegati in applicazioni reali.

Fonte: Security Magazine

In un altro caso, il sistema di intelligenza artificiale addestrato sul feedback umano ha imparato a ottenere valutazioni elevate dalle persone, ingannandole sul raggiungimento di un determinato obiettivo. Questo comportamento ingannevole è piuttosto pericoloso, poiché sistemi di questo tipo possono essere impiegati per attività fraudolente, manipolazione dei mercati finanziari o influenzare le elezioni.

I ricercatori chiedonotronmisure legali

Sulla base dei risultati dello studio, i ricercatori affermano che sono necessarie misure legalitronper affrontare le minacce rappresentate dall'inganno dell'IA.

“Sono necessarie soluzioni proattive, come quadri normativi per valutare i rischi di inganno dell'IA, leggi che impongano trasparenza sulle interazioni dell'IA e ulteriori ricerche per individuare e prevenire l'inganno dell'IA”

Il team di ricerca

Leggi anche: L'intelligenza artificiale potrebbe potenzialmente rilevare il rischio di insufficienza cardiaca, secondo una ricerca

Sono stati compiuti alcuni progressi sotto forma di legge UE sull'intelligenza artificiale e ordine esecutivo deldent Joe Biden sulla sicurezza dell'intelligenza artificiale. Tuttavia, l'applicazione di queste politiche rimanematic perché lo sviluppo dell'intelligenza artificiale è in rapida crescita e non esistono ancora metodi efficaci per gestire questi sistemi.

Vedi anche  Nuovo robot cinese con intelligenza artificiale: Astribot S1 può svolgere le faccende domestiche

Reportage Cryptopolitan di Brenda Kanana

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron / dent di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan