Un progetto di ricerca nel campo dell'indagine sui social media è stato condotto dal team della Notre Dame University, che ha scoperto che il grande pubblico incontra molte difficoltà nel distinguere l'intelligenza umana da quella artificiale durante le discussioni politiche sulle diverse piattaforme online.
La ricerca, suddivisa in tre round con una piattaforma Mastodon personalizzata come piattaforma di distribuzione, indica che i partecipanti scambiano i bot AI per esseri umani nel 58% dei casi.
I robot AI confondono i confini umani nel discorso politico, secondo uno studio
Il team di ricerca, sotto la guida del Dott. Paul Brenner del Research Computation Center dell'Università di Notre Dame, ha adottato bot di intelligenza artificiale basati sulle reti generative che includono GPT4, Llama-2-Chat e Claude 2.
Questa generazione di chatbot è stata progettata con personalità diverse per essere utilizzata come attore politico nel campo degli affari mondiali e, più spesso, assumere tratti umani e partecipare a diverse discussioni politiche.
La cosa bella era che ogni bot aveva un personaggio (l'emergere di una personalità con un profilo dettagliato) a cui era stato chiesto di stabilire una relazione tra le esperienze personali e gli eventi del mondo più ampio.
Per quanto riguarda la manipolazione dei dati, nonostante il panel sapesse di interagire con esseri umani e bot, circa la metà di questo campione non è stata in grado di distinguere tra intelligenza artificiale ed esseri umani reali.
Questa prova dimostra che gli AIbot possono imitare molto da vicino gli esseri umani per quanto riguarda i loro modelli di conversazione, aumentando così le loro possibilità di essere utilizzati per promuovere la disinformazione.
Il ruolo dell'intelligenza artificiale nella disinformazione
Il signor Paul Brenner ha sollevato questioni quali l'adozione di questi bot basati sull'intelligenza artificiale e il loro probabile effetto a cascata, un'opportunità per i bot basati sull'intelligenza artificiale di influenzare l'opinione pubblica e potenzialmente diffondere disinformazione.
Ha spiegato che l'intelligenza artificiale nelle simulazioni è così efficace che ogni essere umano su Internet può essere facilmente ingannato riguardo alla fonte originale delle informazioni.
Un altro aspetto importante evidenziato in questo studio è stata la valutazione di diversi modelli di intelligenza artificiale nel processo, dimostrando che i tassi di accuratezza variavano poco tra i vari LLM. In questo modo, comprendiamo che questo fatto dimostra che anche modelli meno sofisticati potrebbero essere sufficientemente convincenti nel creare conversazioni simili a quelle umane in scenari di interazione sui social media.
Per questo motivo, tra le altre cose, nella prima riga Brenner ha sottolineato la sua posizione sull'approccio multidimensionale alla prevenzione della diffusione di false informazioni con l'aiuto dell'intelligenza artificiale.
Queste iniziative, come campagne educative, azioni legislative e una convalida più rigorosa degli account sui social media, contribuiranno a vicenda a porre fine definitivamente a questo problema. Inoltre, si prevede di considerare le dimensioni della salute psicologica dell'influenza dell'IA sugli adolescenti e di sviluppare strategie per contrastarne l'impatto.
Questo progetto di ricerca evidenzia lo squilibrio tra intelligenza artificiale e integrità delle informazioni online nei social network, che richiede lo sviluppo di strategie integrate per affrontare la situazione.

