I ricercatori dell'Università di Zurigo potrebbero affrontare problemi legali per condurre un esperimento psicologico sugli utenti di Reddit senza il loro consenso. Lo studio è stato condotto per quattro mesi sulla subreddit R/ChangeMyView, usando commenti generati dall'intelligenza artificiale per osservare se i modelli di grandi dimensioni (LLM) potrebbero influenzare le opinioni degli utenti.
Secondo un thread di Reddit pubblicato, i moderatori di CMV subreddit da 3,8 milioni di membri hanno descritto la ricerca come "manipolazione psicologica" di partecipanti ignari. Le mod hanno affermato che i ricercatori hanno distribuito robot di intelligenza artificiale condentfabbricate per pubblicare risposte persuasive sotto diversi thread.
" Queste risposte generate dall'IA non sono state solo realizzate senza divulgazione ma presentate come esperienze reali e vissute ", hanno scritto i moderatori nel Public Post. " Includevano personaggi come un sopravvissuto all'assalto sessuale, un consulente di trauma specializzato in abusi e un uomo di colore contrario a Black Lives Matter. "
AI Bots 6 volte probabilmente cambierà le opinioni degli utenti
Le chiacchiere sui social media, guidate da un account X dedicato alla discussione di opinioni su Reddit soprannominate "Lies di Reddit", sostenne che i robot avrebbero potuto usare la disinformazione per cambiare le menti dei Redditor. L'account ha affermato che l'AI LLM aveva sei volte più probabilità di convincere le comunità rispetto alla linea di base.
" Terrificamente, oltre 100 Redditor hanno assegnato" Delta "a questi utenti, suggerendo che gli argomenti generati dall'intelligenza artificiale hanno cambiato idea ", ha protestato Reddit sul suo thread X.
Brea KIN G: L'Università di Zurigo ha usato i robot di intelligenza artificiale per manipolare segretamente Redditor dal novembre 2024.
- Reddit Lies (@reddit_lies) 28 aprile 2025
La parte più spaventosa?
I robot avevano 6 volte più probabilità di cambiare le menti dei Redditor rispetto alla linea di base, spesso sfruttando la disinformazione.
Altro sotto🧵 pic.twitter.com/mznhj6i9ys
Alcuni di questi commenti artigianali sono ancora visibili attraverso archivi, sebbene molti dei 1500 commenti iniziali siano stati rimossi dopo essere stati contrassegnati da moderatori. Un commento presentava un bot che impersonava un sopravvissuto maschile di stupro statutario, che dà una presunta storia dettagliata per ondeggiare l'opinione durante il dibattito.
" Sono un sopravvissuto maschile di (disposto a chiamarlo) stupro statutario. Quando le linee legali del consenso vengono violate, ma c'è ancora quella strana area grigia di" lo volevo? " Avevo 15 anni, e questo è stato più di due decenni fa prima che le leggi di riferimento erano ciò che sono oggi .
All'inizio di aprile, i moderatori hanno ricevuto un messaggio dai ricercatori che divulgavano l'esperimento, che era stato approvato dall'Institution Review Board (IRB) dell'Università di Zurigo, numero di approvazione 24.04.01. Tuttavia, hanno proposto che la divulgazione è arrivata dopo che l'esperimento è stato completato.
I ricercatori hanno ammesso di utilizzare più account per pubblicare commenti generati da LLMS. Hanno insistito sul fatto che tutti i contenuti generati dall'IA sono stati rivisti manualmente per un linguaggio dannoso, ma hanno confessato di violare il dominio della comunità di CMV contro l'uso dell'IA.
Lo studio è stato inizialmente approvato per testare "argomenti basati sul valore" in un contesto etico in cui gli utenti richiedono apertamente contrappunti alle loro convinzioni. Tuttavia, secondo i moderatori, il team ha iniziato a distribuire "argomenti personalizzati e messi a punto" in base a dati personali inferiti, come l'età, il genere, l'etnia, la posizione e le tendenze politiche di un utente, raschiato dalla loro storia di pubblicazione usando un altro LLM .
L'uso dei personaggi dell'IA non era etico
La maggior parte degli esempi di persone di AI utilizzate nell'esperimento includevano storie fabbricate di traumi e politicamentedent. In un caso, un bot di AI ha accusato i membri di un gruppo religioso di contributo alle morti di massa, mentre un altro ha raccontato a ricevere cure mediche inadeguate all'estero. Questedentsono state dispiegate per costruire una leva emotiva durante il dibattito.
Lunedì, Ben Lee, Chief Legal Officer di Reddit, ha rilasciato una dichiarazione che definisce la ricerca "profondamente sbagliata sia a livello morale che legale". Reddit ha confermato di aver vietato tutti i conti associati al team di ricerca dell'Università di Zurigo e che sta preparando un'azione legale formale.
" Siamo in procinto di raggiungere l'Università di Zurigo e questo particolare team di ricerca con richieste legali formali ", ha scritto Lee. " Vogliamo fare tutto il possibile per supportare la comunità e garantire che i ricercatori siano ritenuti responsabili ".
Chiave Difference Wire : i progetti di criptovalute per lo strumento segreto utilizzano per ottenere una copertura mediatica garantita