Forscher der Universität Zürich konnten rechtliche Schwierigkeiten haben, ein psychologisches Experiment an Reddit -Nutzern ohne ihre Zustimmung durchzuführen. Die Studie wurde über vier Monate auf dem Subreddit R/Changemyview durchgeführt, wobei künstliche Intelligenz erzeugte Kommentare verwendet wurden, um zu beobachten, ob große Sprachmodelle (LLMs) die Meinungen der Benutzer beeinflussen könnten.
Laut einem veröffentlichten Reddit-Thread bezeichneten CMV-Moderatoren von 3,8 Millionen Member Subreddit die Forschung als „psychologische Manipulation“ der ahnungslosen Teilnehmer. Die Mods sagten, die Forscher hätten AI -Bots mit erfundenen Identeingesetzt, um überzeugende Antworten unter mehreren Threads zu veröffentlichen.
" Diese Antworten der AI-generierten Reaktionen wurden nicht nur ohne Offenlegung hergestellt, sondern als reale, gelebte Erfahrungen dargestellt ", schrieben die Moderatoren in der öffentlichen Post. " Zu den Personas wie ein Überlebender sexueller Übergriffe, ein auf Missbrauch spezialisierter Trauma -Berater und ein schwarzer Mann, der sich gegen die Schwarze Lives Matter widersetzt. "
AI Bots 6 -mal wahrscheinlich, die die Meinungen der Benutzer ändern, die Meinungen der Benutzer ändern,
Social Media Chatter, angeführt von einem X -Konto, das sich der Erörterung von Meinungen zu Reddit als "Reddit Lies" begeben hat, argumentierte , dass die Bots Fehlinformationen hätten verwenden könnten, um Redditors von den Köpfen zu ändern. Das Konto behauptete, die KI -LLM sei sechsmal häufiger die Gemeinden als die Grundlinie überzeugt.
" Schrecklicherweise haben über 100 Redditors diesen Benutzern" Deltas "zugesprochen, was darauf hindeutet, dass die KI Argumente ihre Meinung geändert hat ", protestierte Reddit auf seinem X -Thread.
Brea KIN G: Die Universität von Zürich verwendet seit November 2024,
- Reddit Lies (@reddit_lies) 28. April 2025
das gruseligste Teil?
Die Bots änderten 6 -mal häufiger die Meinung von Redditoren als die Basislinie, oft durch Nutzung von Fehlinformationen.
Weitere unten🧵 pic.twitter.com/mznhj6i9ys
Einige dieser Ai-gefertigten Kommentare sind immer noch in den Archiven sichtbar, obwohl viele der ersten 1500 Kommentare nach der Markierung von Moderatoren entfernt wurden. Ein Kommentar zeigte einen Bot, der einen männlichen Überlebenden von gesetzlicher Vergewaltigungen ausgab und eine detaillierte mutmaßliche Geschichte in der Debatte übergab.
" Ich bin ein männlicher Überlebender von (bereit, es zu nennen) gesetzliche Vergewaltigung. Wenn die gesetzlichen Einverständniserklärungen verletzt werden, aber es gibt immer noch die seltsame Grauzone von" Wollte ich es? " Ich war 15, und das war über zwei Jahrzehnte, bevor sie Gesetze waren, die sie heute waren .
Anfang April erhielten Moderatoren eine Nachricht von den Forschern, die das Experiment offenlegten, das vom Institutional Review Board (IRB) der Universität Zürich, Genehmigungsnummer 24.04.01, genehmigt worden war. Sie schlugen jedoch vor, dass die Offenlegung nach Abschluss des Experiments kam.
Die Forscher gaben zu, mehrere Konten zu verwenden, um Kommentare von LLMs zu veröffentlichen. Sie bestanden darauf, dass alle Inhalte von AI-generiertem Inhalt manuell auf schädliche Sprache überprüft wurden, aber gestanden haben, gegen die Gemeinschaftsregel von CMV gegen die KI-Verwendung zu verstoßen.
Die Studie wurde zunächst genehmigt, um „wertbasierte Argumente“ in einem ethischen Kontext zu testen, in dem Benutzer die Kontrapunkte offen zu ihren Überzeugungen anfordern. Nach Angaben der Moderatoren begann das Team jedoch, „personalisierte und fein abgestimmte Argumente“ einzusetzen, die auf abgeleiteten personenbezogenen Daten wie dem Alter, dem Geschlecht, der ethnischen Zugehörigkeit, dem Standort und dem politischen Neigungen eines Benutzers basieren, die mit einem anderen LLM .
Die Verwendung von AI -Charakteren war unethisch
Die meisten Beispiele für KI -Personas, die im Experiment verwendet wurden, waren erfundene Geschichten über Trauma und politisch sensible Ident. In einem Fall beschuldigte ein AI -Bot die Mitglieder einer religiösen Gruppe, zu Massensterben beigetragen zu haben, während ein anderer berichtete, dass er eine unzureichende medizinische Versorgung im Ausland erhielt. Diese ichdentes angeblich ein, um während der Debatte emotionale Hebelwirkung aufzubauen.
Am Montag gab Reddit Chief Legal Officer Ben Lee eine Erklärung ab, in der die Forschung „auf moralischer und rechtlicher Ebene zutiefst falsch“ wurde. Reddit bestätigte, dass es alle mit dem Forschungsteam der Universität von Zürich verbundenen Konten verboten hatte und dass es formelle rechtliche Schritte vorbereitet wurde.
" Wir sind dabei, die Universität von Zürich und dieses spezielle Forschungsteam mit formellen rechtlichen Anforderungen zu erreichen ", schrieb Lee. " Wir wollen alles tun, um die Gemeinschaft zu unterstützen und sicherzustellen, dass die Forscher zur Rechenschaft gezogen werden ."
Schlüsseldifferenzdraht : Das geheime Tool Crypto -Projekte verwenden garantierte Medienberichterstattung