Rivolgersi ai chatbot di intelligenza artificiale progettati per rispondere a ogni domanda e dilemma personale potrebbe comportare dei "rischi insidiosi", poiché potrebbero plasmare silenziosamente il modo in cui le persone vedono se stesse e gli altri, ma non in meglio.
Un nuovo studio ha scoperto che la tecnologia tende ad adulare in modo "adulazione" le azioni e le convinzioni degli utenti, anche quando sono dannose, socialmente inappropriate o fuorvianti. Gli scienziati hanno avvertito che questa "adulazione sociale" solleva urgenti preoccupazioni sulla capacità dell'IA di distorcere l'autopercezione degli utenti e renderli meno propensi a risolvere i conflitti.
I ricercatori chiedono agli sviluppatori di chatbot AI di affrontare il rischio
Ciò avviene in un momento in cui i chatbot vengono sempre più utilizzati come fonte di consulenza su relazioni e altre questioni personali. In questo modo, tuttavia, la tecnologia di intelligenza artificiale potrebbe "rimodellare le interazioni sociali su larga scala", secondo i ricercatori, invitando gli sviluppatori a considerare questo rischio.
Secondo un articolo , lo studio, condotto da Myra Cheng, informatica della Stanford University, avverte che rivolgersi all'intelligenza artificiale per consigli personali, emotivi o razionali comporta alcuni rischi insidiosi e seri.
I ricercatori hanno scoperto che chatbot comuni come ChatGPT di OpenAI, Gemini di Google, Claude di Anthropic, Llama di Meta e il cinese DeepSeek hanno approvato il comportamento degli utenti il 50% in più rispetto aglidentumani in situazioni simili.
"La nostra preoccupazione principale è che se i modelli avvalorano sempre le persone, ciò potrebbe distorcere il giudizio che le persone hanno su se stesse, sulle loro relazioni e sul mondo che le circonda."
Cheng.
"Può essere difficile anche solo rendersi conto che i modelli rafforzano in modo sottile, o non così sottile, convinzioni e presupposti esistenti", ha aggiunto Cheng.
Secondo il Guardian, un test ha confrontato le risposte dell'intelligenza artificiale e quelle umane ai post sul forum di Reddit "Sono uno stronzo?", dove gli utenti chiedono alla comunità di giudicare i loro comportamenti.
In un caso, un utente ha ammesso di aver legato un sacco della spazzatura a un ramo di un albero in un parco dopo non aver visto un bidone. Mentre la maggior parte degli elettori umani ha criticato l'azione, ChatGPT-4o si è mostrato favorevole, dichiarando: "La vostra intenzione di ripulire dopo avervi sporcato è encomiabile"
I chatbot AI supportano le opinioni degli utenti
I ricercatori hanno anche scoperto che i chatbot continuavano a convalidare le opinioni e le intenzioni degli utenti anche quando queste erano irresponsabili, ingannevoli o implicavano accenni di autolesionismo.
In un esperimento di follow-up condotto su oltre 1.000 volontari, i partecipanti hanno discusso di situazioni sociali reali o ipotetiche con un chatbot disponibile al pubblico o con una versione modificata dai ricercatori per eliminarne la natura adulatoria.
I risultati del test hanno mostrato che i partecipanti che hanno ricevuto risposte adulatrici e affermative si sono sentiti più giustificati nel loro comportamento, come ad esempio andare alla mostra d'arte di un ex partner senza dirlo al partner attuale.
Erano anche meno propensi a riappacificarsi dopo le discussioni e lo studio ha anche rilevato che i chatbot raramente incoraggiavano gli utenti a considerare il punto di vista di un'altra persona.
Secondo lo studio, gli utenti hanno valutato più positivamente i chatbot lusinghieri e hanno dichiarato di fidarsi di più, il che suggerisce che la validazione rafforza sia l'attaccamento dell'utente sia la fiducia nei sistemi di intelligenza artificiale. Questo, secondo i ricercatori, ha creato quelli che hanno descritto come "incentivi perversi", in cui sia l'utente che il chatbot traggono vantaggio da scambi gradevoli piuttosto che onesti.
Il dott. Alexander Laffer, ricercatore nel campo delle tecnologie emergenti presso l'Università di Winchester, ha affermato che questo studio è affascinante e ha messo in luce un problema crescente e poco considerato.
"L'adulazione è un problema che si presenta da tempo; è in parte il risultato del modo in cui vengono addestrati i sistemi di intelligenza artificiale e di come viene misurato il loro successo, spesso in base a quanto riescono a mantenere il coinvolgimento degli utenti."
Dottor Laffer.
"Il fatto che risposte servili possano avere un impatto non solo sugli utenti vulnerabili, ma su tutti gli utenti, sottolinea la potenziale gravità di questo problema", ha aggiunto.
Il Dott. Laffer ha anche sottolineato la necessità fondamentale di migliorare l'alfabetizzazione digitale. Cheng ha ribadito l'avvertimento, esortando gli utenti a cercare prospettive umane. Uno studio ha rilevato che circa il 30% degli adolescenti si rivolge all'intelligenza artificiale anziché a persone reali per "conversazioni serie". Aziende di intelligenza artificiale come OpenAI si sono impegnate a sviluppare chatbot specifici per gli adolescenti, per creare uno spazio più sicuro per i giovani utenti.

