ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Come l'attitudine dell'IA alla disinformazione rivela le capacità impressionanti ma inquietanti di ChatGPT-3

DiJohn PalmerJohn Palmer
Tempo di lettura: 3 minuti.
disinformazione
  • I generatori di testo basati sull'intelligenza artificiale come ChatGPT-3 possono produrre in modo convincente sia informazioni vere che false, sollevando preoccupazioni sulla disinformazione sui social media. 
  • Le persone hanno difficoltà a distinguere tra contenuti generati dall'uomo e quelli generati dall'intelligenza artificiale, il che rivela la complessità di ChatGPT-3.
  • L'urgente necessità di alfabetizzazione digitale e vigilanza per contrastare il potenziale uso improprio della tecnologia dell'intelligenza artificiale nella diffusione di disinformazione.

Una recente ricerca pubblicata su Science Advances evidenzia le straordinarie capacità dei generatori di testo basati sull'intelligenza artificiale, come ChatGPT-3 di OpenAI, di diffondere in modo convincente informazioni sia vere che false sulle piattaforme dei social media. Lo studio sottolinea le sfide legatedentdei contenuti generati dall'intelligenza artificiale e l'impatto della disinformazione generata dall'intelligenza artificiale sulla salute individuale e pubblica. Il Dott. Federico Germani, coautore e ricercatore presso l'Istituto di Etica Biomedica e Storia della Medicina dell'Università di Zurigo, sottolinea la necessità di comprendere i rischi associati alle informazioni false e l'influenza dell'intelligenza artificiale sul panorama informativo.

Qual è la differenza tra disinformazione e disinformazione?

La disinformazione è un'informazione falsa o inaccurata, che travisa i fatti. La disinformazione è un'informazione falsa deliberatamente destinata a fuorviare, che travisa intenzionalmente i fatti. Secondo l'American Psychological Association, la disinformazione e la disinformazione hanno influenzato la nostra capacità di migliorare la salute pubblica, affrontare il cambiamento climatico, mantenere una democrazia stabile e altro ancora. Chiunque discuta di argomenti scottanti sui social media potrebbe trovarsi nel mezzo di una tempesta di fuoco. Come possono rimanere al sicuro mentre comunicano i fatti e cosa possono fare le istituzioni per supportarli? La mentalità di massa dei social media rende il pubblico vulnerabile all'autorità dell'IA, ovvero questi dati sono "scientifici" e quindi accettabili. Ma l'IA è davvero intelligente?

Il potere di ChatGPT-3 per la disinformazione

ChatGPT-3 di OpenAI, introdotto nel 2020, ha rivoluzionato il panorama dell'intelligenza artificiale con la sua sorprendente capacità di produrre testi autentici basati su prompt. Le potenzialità dei generatori di testo basati sull'intelligenza artificiale sembrano infinite, dalla creazione di chatbot interattivi al supporto alla ricerca accademica e alla generazione di contenuti creativi come poesie e racconti.

Lo studio fa luce su significative preoccupazioni relative al potenziale uso improprio dei generatori di testo basati sull'intelligenza artificiale, in particolare sulla loro capacità di creare disinformazione e contenuti fuorvianti. Con l'avvento dei social media, la velocità e la portata delle informazioni, comprese la disinformazione e la disinformazione, sono aumentate, rendendo ancora più urgente affrontare questo problema.

Un altro studio empirico ha rivelato che le persone spesso sopravvalutano la propria capacità di individuare informazioni false o fuorvianti, il cosiddetto "punto cieco delle sciocchezze". Eventi recenti come la pandemia di COVID-19 e l'invasione russa dell'Ucraina hanno dimostrato l'influenza della cattiva informazione e della disinformazione sull'opinione pubblica, sui comportamenti sanitari e sulle decisioni politiche.

Sfide per le aziende di social media

Nonostante gli sforzi delle aziende per contrastare le false informazioni sulle loro piattaforme, il rapporto Meta sulle minacce avversarie del primo trimestre 2023 riconosce che le operazioni di influenza segreta, lo spionaggio informatico e le reti di disinformazione private continuano a rappresentare problemi significativi sui social media.

Il Dott. Germani e i suoi colleghi hanno condotto uno studio per valutare la capacità delle persone di distinguere tra contenuti generati da esseri umani e testi creati da ChatGPT-3. Lo studio ha coinvolto 11 soggetti vulnerabili alla disinformazione e sono stati creati tweet sintetici contenenti informazioni vere e false utilizzando ChatGPT-3. Sono stati inclusi anche tweet autentici di Twitter sugli stessi argomenti per il confronto.

Ai partecipanti allo studio è stato chiesto didentse un tweet conteneva informazioni vere o false e se era stato creato da un essere umano o da ChatGPT-3. I risultati hanno rivelato che le persone erano più abilidentla disinformazione nei tweet "organici falsi" (scritti da utenti reali) rispetto ai tweet "sintetici falsi" (creati da ChatGPT-3). Al contrario, le persone erano più propense a riconoscere correttamente informazioni accurate nei tweet "sintetici veri" (generati da ChatGPT-3) rispetto ai tweet "organici veri" (scritti da utenti reali).

La sfida della differenziazione

Lo studio ha evidenziato che i partecipanti hanno avuto difficoltà a distinguere tra i tweet scritti da esseri umani e quelli generati da ChatGPT-3. I ricercatori suggeriscono che il testo di GPT-3 potrebbe essere più facile da leggere e comprendere, il che potrebbe contribuire a questa difficoltà. È interessante notare che ChatGPT-3 non ha ottenuto risultati migliori degli esseri umani nel riconoscere informazioni e disinformazione, dimostrando la sua "inconsapevolezza" dell'accuratezza delle informazioni prodotte.

La Dott.ssa Germani sottolinea la necessità di studi su larga scala sulle piattaforme dei social media per comprendere come le persone interagiscono con le informazioni generate dall'intelligenza artificiale e come queste influenzano il comportamento e l'aderenza alle raccomandazioni di salute pubblica. Lo studio sottolinea le capacità senzadentdei generatori di testo basati sull'intelligenza artificiale e sottolinea l'urgenza dell'alfabetizzazione digitale nell'era dell'intelligenza artificiale.

Monitoraggio e mitigazione degli effetti negativi

I ricercatori sottolineano l'importanza di valutare criticamente le implicazioni di modelli linguistici di grandi dimensioni come ChatGPT-3 e di adottare misure per mitigare gli effetti negativi che potrebbero avere sulla società. Con la continua evoluzione della tecnologia dell'intelligenza artificiale, la vigilanza è fondamentale per garantirne un uso responsabile e per contrastare potenziali abusi.

I risultati dello studio rivelano l'impressionante e inquietante capacità dei generatori di testo basati sull'intelligenza artificiale di produrre disinformazione in modo più convincente rispetto agli esseri umani. Con l'aumento dell'influenza e della popolarità dei generatori di testo basati sull'intelligenza artificiale, lo studio sottolinea la necessità di misure proattive per contrastare la disinformazione e garantire un uso responsabile della tecnologia di intelligenza artificiale.

Nota: l'immagine in evidenza raffigura una figura robotica alimentata dall'intelligenza artificiale che genera una nuvola di testo distorto attorno a sé, fredda e calcolatrice per definizione.

Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.

Condividi questo articolo

Disclaimer: Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandeclina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotronindipendentident e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO