Los investigadores de la Universidad de Zurich podrían enfrentar problemas legales por realizar un experimento psicológico en usuarios de Reddit sin su consentimiento. El estudio se llevó a cabo durante cuatro meses en el subreddit r/Changemyview, utilizando comentarios artificiales generados por inteligencia para observar si los modelos de idiomas grandes (LLM) podrían influir en las opiniones de los usuarios.
Según un hilo de Reddit publicado, los moderadores CMV subreddit de 3,8 millones de miembros describieron la investigación como "manipulación psicológica" de los participantes desprevenidos. Los Mods dijeron que los investigadores desplegaron bots de IA condentfabricadas para publicar respuestas persuasivas bajo varios hilos.
" Estas respuestas generadas por IA no solo se elaboraron sin divulgación, sino que se presentaron como experiencias reales y vividas ", escribieron los moderadores en el Public Post. " Incluyó personas como un sobreviviente de agresión sexual, un consejero de trauma especializado en abuso y un hombre negro opuesto a Black Lives Matter "
AI bots 6 veces es probable que cambie las opiniones de los usuarios
La charla de las redes sociales, dirigida por una cuenta X dedicada a discutir opiniones sobre Reddit denominado 'Reddit Lies', argumentó que los bots podrían haber usado información errónea para cambiar las mentes de los Redditors. La cuenta afirmó que el AI LLM tenía seis veces más probabilidades de convencer a las comunidades que a la línea de base.
" Terrificialmente, más de 100 Redditors otorgaron" Deltas "a estos usuarios, lo que sugiere que los argumentos generados por IA cambiaron de opinión ", protestó Reddit en su hilo X.
Brea KIN G: La Universidad de Zurich ha estado utilizando bots de IA para manipular en secreto a los redditors desde noviembre de 2024. ¿
- Reddit Lies (@reddit_lies) 28 de abril de 2025
La parte más aterradora?
Los bots tenían 6 veces más probabilidades de cambiar las mentes de los redditors que la línea de base, a menudo aprovechando la información errónea.
Más abajo🧵 pic.twitter.com/mznhj6i9ys
Algunos de estos comentarios artesanales todavía son visibles a través de los archivos, aunque muchos de los 1500 comentarios iniciales fueron eliminados después de ser marcados por moderadores. Un comentario contó con un bot que se hace pasar por un sobreviviente masculino de violación legal, dando una supuesta historia detallada para influir en la opinión durante el debate.
“ Soy un sobreviviente masculino de (dispuesto a llamarlo) violación legal. Cuando se violan las líneas legales de consentimiento, pero todavía hay esa extraña área gris de '¿Lo quería?' Tenía 15 años, y esto fue hace más de dos décadas antes de que las leyes de informar fueran lo que tenía hoy .
A principios de abril, los moderadores recibieron un mensaje de los investigadores que revelaron el experimento, que había sido aprobado por la Junta de Revisión Institucional (IRB) de la Universidad de Zúrich, número de aprobación 24.04.01. Sin embargo, propusieron que la divulgación se produjo después de que se completó el experimento.
Los investigadores admitieron haber usado múltiples cuentas para publicar comentarios generados por LLMS. Insistieron en que todo el contenido generado por IA fue revisado manualmente por un lenguaje dañino, pero confesó que violar el gobierno comunitario de CMV contra el uso de IA.
Inicialmente, el estudio fue aprobado para probar "argumentos basados en el valor" en un contexto ético donde los usuarios solicitan abiertamente contrapuntos a sus creencias. Sin embargo, según los moderadores, el equipo comenzó a desplegar "argumentos personalizados y ajustados" basados en datos personales inferidos, como la edad de un usuario, el género, el origen étnico, la ubicación y las inclinaciones políticas, raspados de su historial de publicación utilizando otra LLM .
El uso de personajes de IA no era ético
La mayoría de los ejemplos de personajes de IA utilizados en el experimento incluyeron historias fabricadas de trauma ydentpolíticamente sensibles. En un caso, un bot AI acusó a los miembros de un grupo religioso de contribuir a las muertes masivas, mientras que otro relató recibir atención médica inadecuada en el extranjero. Supuestamente se desplegaron estasdentpara desarrollar influencia emocional durante el debate.
El lunes, el Director Legal de Reddit, Ben Lee, emitió un comunicado llamando a la investigación "profundamente incorrecta tanto en un nivel moral como legal". Reddit confirmó que había prohibido todas las cuentas asociadas con el equipo de investigación de la Universidad de Zúrich y que está preparando acciones legales formales.
" Estamos en el proceso de llegar a la Universidad de Zúrich y a este equipo de investigación particular con demandas legales formales ", escribió Lee. " Queremos hacer todo lo posible para apoyar a la comunidad y garantizar que los investigadores sean responsables ".
Cable de diferencia de clave : la herramienta secreta que los proyectos de cifrado utilizan para obtener cobertura de medios garantizada