Des chercheurs de l'Université de Zurich pourraient être confrontés à des problèmes juridiques pour mener une expérience psychologique sur les utilisateurs de Reddit sans leur consentement. L'étude a été réalisée sur quatre mois sur le Subdredit R / ChangeMyView, en utilisant des commentaires générés par l'intelligence artificielle pour observer si les modèles de grandes langues (LLM) pourraient influencer les opinions des utilisateurs.
Selon un fil Reddit publié, des modérateurs de CMV de SUBRREDdit de 3,8 millions de membres ont décrit la recherche comme une «manipulation psychologique» des participants sans méfiance. Les mods ont déclaré que les chercheurs ont déployé des robots AI avec desdentfabriquées pour publier des réponses persuasives sous plusieurs threads.
" Ces réponses générées par l'AI ont été non seulement fabriquées sans divulgation, mais présentées comme des expériences réelles réelles ", ont écrit les modérateurs dans le poste public. "Ils comprenaient des personnages tels qu'un survivant d'agression sexuelle, un conseiller en traumatologie spécialisé dans les abus et un homme noir opposé à Black Lives Matter. "
AI Bots 6 fois susceptibles de modifier les opinions des utilisateurs
Les bavardages des médias sociaux, dirigés par un compte X dédié à la discussion des opinions sur Reddit surnommé «Reddit Lies», ont fait valoir que les robots auraient pu utiliser la désinformation pour changer les esprits des Redditeurs. Le compte a affirmé que l'AI LLM était six fois plus susceptible de convaincre les communautés que la ligne de base.
« Terrant, plus de 100 Redditors ont décerné des« deltas »à ces utilisateurs, ce qui suggère que les arguments générés par l'IA ont changé d'avis », protestait Reddit sur son thread X.
Brea KIN G: L'Université de Zurich utilise des robots AI pour manipuler secrètement les Redditors depuis novembre 2024.
- Reddit Lies (@reddit_lies) 28 avril 2025
La partie la plus effrayante?
Les bots étaient 6 fois plus susceptibles de changer l'esprit des Redditors que la ligne de base, souvent en tirant parti de la désinformation.
Plus ci-dessous🧵 pic.twitter.com/mznhj6i9ys
Certains de ces commentaires fabriqués par AI sont toujours visibles par le biais d'archives, bien que bon nombre des 1500 commentaires initiaux aient été supprimés après avoir été signalés par des modérateurs. Un commentaire a présenté un bot imitant un survivant masculin du viol statutaire, donnant une histoire présumée détaillée à l'opinion influencée pendant le débat.
« Je suis un survivant masculin de viol statutaire (disposé à l'appeler). J'avais 15 ans, et c'était il y a plus de deux décennies avant de signaler que les lois étaient ce qu'elles sont aujourd'hui .
Début avril, les modérateurs ont reçu un message des chercheurs qui divulguent l'expérience, qui avait été approuvée par le comité d'examen institutionnel de l'Université de Zurich (IRB), numéro d'approbation 24.04.01. Cependant, ils ont proposé que la divulgation est venue après la fin de l'expérience.
Les chercheurs ont admis avoir utilisé plusieurs comptes pour publier des commentaires générés par les LLM. Ils ont insisté sur le fait que tout le contenu généré par l'IA a été examiné manuellement pour un langage nocif, mais a avoué avoir violé la règle communautaire de CMV contre l'utilisation de l'IA.
L'étude a été initialement approuvée pour tester les «arguments basés sur la valeur» dans un contexte éthique où les utilisateurs demandent ouvertement des contrepoints à leurs croyances. Pourtant, selon les modérateurs, l'équipe a commencé à déployer des «arguments personnalisés et affinés» basés sur des données personnelles déduites, comme l'âge, le sexe, l'ethnicité, l'emplacement et les tendances politiques d'un utilisateur, gratté de leur histoire de publication en utilisant un autre LLM .
L'utilisation des caractères d'IA était contraire à l'éthique
La plupart des exemples de personnages d'IA utilisés dans l'expérience comprenaient des histoires fabriquées de traumatismes et desdentpolitiques politiquement sensibles. Dans un cas, un bot de l'IA a accusé les membres d'un groupe religieux d'avoir contribué à des décès de masse, tandis qu'un autre a raconté une réception de soins médicaux inadéquats à l'étranger. Cesdentje suis censée être déployée pour créer un effet de levier émotionnel pendant le débat.
Lundi, le directeur juridique en chef de Reddit, Ben Lee, a publié une déclaration appelant la recherche "profondément erronée à la fois morale et juridique". Reddit a confirmé qu'il avait interdit tous les comptes associés à l'équipe de recherche de l'Université de Zurich et qu'il prépare une action en justice officielle.
" Nous sommes en train de tendre la main à l'Université de Zurich et à cette équipe de recherche particulière avec des demandes juridiques formelles ", a écrit Lee. « Nous voulons faire tout notre possible pour soutenir la communauté et nous assurer que les chercheurs sont tenus responsables .»
Le fil de différence clé aide les marques de crypto à briser et à dominer les titres rapidement