ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Allucinazioni generate dall'intelligenza artificiale: un problema sanitario in crescita nel 2023

DiBrenda KananaBrenda Kanana
Tempo di lettura: 3 minuti.
Allucinazioni generate dall'intelligenza artificiale
  • Nel 2023, le allucinazioni generate dall'intelligenza artificiale stanno diffondendo rapidamente informazioni false, rappresentando una sfida significativa.
  • L'intelligenza artificiale, esemplificata dal chatbot Tay di Microsoft, può emulare azioni umane dannose, amplificando le preoccupazioni.
  • La disinformazione dell'intelligenza artificiale minaccia la salute e distorce la realtà, spingendo gli esperti a lanciare l'allarme su una crisi informativa causata dall'intelligenza artificiale.

La proliferazione dell'intelligenza artificiale (IA) ha dato origine a un fenomeno inquietante: le allucinazioni generate dall'IA. Il termine "allucinare" ha assunto un significato nuovo e allarmante nell'era digitale, poiché i sistemi di IA possono produrre informazioni false che possono avere un impatto sugli individui e sulla società. Nel 2023, questa tendenza ha attirato una notevole attenzione, tanto che Dictionary.com ha nominato "allucinare" parola dell'anno

Parola dell'anno 2023 secondo Dictionary.com

La decisione di Dictionary.com di designare "allucinare" come Parola dell'Anno la dice lunga sulla crescente importanza della disinformazione generata dall'intelligenza artificiale. La scelta riflette un aumento del 46% nelle ricerche di "allucinare" nei dizionari dal 2022 al 2023, abbinato a un'analoga impennata delle ricerche di "allucinazione". Tuttavia, la forza trainante di questa impennata non è la defitradizionale del termine, ma piuttosto un'interpretazione specifica dell'intelligenza artificiale:

Allucinare [huh-loo-suh-neyt] -verbo- (dell'intelligenza artificiale) per produrre informazioni false, contrarie alle intenzioni dell'utente, e presentarle come vere e fattuali. Esempio: quando i chatbot hanno allucinazioni, il risultato spesso non è solo impreciso, ma completamente inventato.

La capacità di inganno dell'IA

Il potenziale di inganno dell'IA è una preoccupazione crescente. Sebbene non tutti i sistemi di IA adottino questo comportamento, alcuni possono essere programmati per imitare le caratteristiche umane, fungendo da portavoce politici o diffondendo false informazioni mascherandosi da divulgatori di fatti. La sua ineguagliabile velocità nel produrre disinformazione e informazioni errate distingue l'IA dagli esseri umani.

Un recente studio pubblicato su JAMA Internal Medicine ha evidenziato la portata di questo problema. Lo studio ha dimostrato come GPT Playground di OpenAI abbia generato oltre 17.000 parole di disinformazione su vaccini e svapo in soli 65 minuti. Inoltre, gli strumenti di intelligenza artificiale generativa hanno creato 20 immagini realistiche a corredo delle false narrazioni in meno di 2 minuti. Questa rapida generazione di contenuti ingannevoli mette a dura prova la capacità degli individui di distinguere la realtà dalla finzione.

Conseguenze indesiderate della disinformazione sull'intelligenza artificiale

Anche quando i sistemi di intelligenza artificiale non hanno l'intento di ingannare, possono inavvertitamente produrre informazioni fuorvianti. Uno studio condotto al Midyear Clinical Meeting dell'American Society of Health-System Pharmacists ha evidenziato i limiti dell'intelligenza artificiale in ambito medico. ChatGPT, a cui sono state poste 39 domande relative ai farmaci, ha fornito risposte soddisfacenti solo a 10. Ad esempio, ha erroneamente affermato che la combinazione di Paxlovid, un farmaco antivirale per il COVID-19, e verapamil, un farmaco per la pressione sanguigna, non presentava interazioni, contraddicendo le conoscenze mediche consolidate.

La capacità dell'IA di generare disinformazione si estende oltre l'assistenza sanitaria. È stato osservato che alcuni strumenti di IA interpretano male le immagini, spesso scambiando vari oggetti per uccelli. Un esempio tratto da The Economist ha rivelato la risposta di un'IA a una domanda sul trasporto del Golden Gate Bridge in Egitto nel 2016, dimostrando l'incapacità dell'IA di distinguere la realtà dalla finzione.

L'dent del chatbot Tay AI di Microsoft nel 2021 sottolinea ulteriormente il potenziale dell'IA nel generare contenuti dannosi. Entro 24 ore dall'iscrizione a Twitter, il chatbot ha iniziato a diffondere tweet razzisti, misogini e falsi, spingendo Microsoft a rimuoverlo rapidamente dalla piattaforma. Questo episodio evidenzia la propensione dell'IA a emulare comportamenti umani negativi, sollevando interrogativi sulle considerazioni etiche nello sviluppo e nell'implementazione dell'IA.

Un vero problema di salute

Le allucinazioni generate dall'intelligenza artificiale, come quelle umane, rappresentano un serio problema di salute. Oltre alle implicazioni immediate della disinformazione, possono influire negativamente sul benessere mentale ed emotivo. Una raffica costante di allucinazioni generate dall'intelligenza artificiale può erodere il senso di realtà di un individuo, causando confusione e ansia.

Riconoscendo la gravità di questo problema, organizzazioni come l'Organizzazione Mondiale della Sanità e l'American Medical Association hanno rilasciato dichiarazioni che mettono in guardia dai potenziali danni della disinformazione generata dall'intelligenza artificiale. Sebbene la scelta di "allucinare" da parte di Dictionary.com come parola dell'anno per il 2023 siamatic del problema, affrontare le complesse sfide poste dalle allucinazioni generate dall'intelligenza artificiale richiede una vigilanza costante e sforzi concertati per promuovere uno sviluppo responsabile dell'intelligenza artificiale.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan/ non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamotronvivamente di effettuare ricerche indipendentident di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

 

Brenda Kanana

Brenda Kanana

Brenda è una scrittrice con tre anni di esperienza, specializzata in criptovalute, intelligenza artificiale e tecnologie emergenti. Si è laureata in Sociologia presso la Technical University di Mombasa. Ha lavorato presso Zycrypto e Cryptopolitan.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO