Investigadores de la Universidad de Zúrich podrían enfrentarse a problemas legales por realizar un experimento psicológico con usuarios de Reddit sin su consentimiento. El estudio se llevó a cabo durante cuatro meses en el subreddit r/changemyview, utilizando comentarios generados por inteligencia artificial para observar si los grandes modelos lingüísticos (LLM) podían influir en las opiniones de los usuarios.
Según un hilo de Reddit publicado, los moderadores del subreddit CMV, con 3,8 millones de miembros, describieron la investigación como una "manipulación psicológica" de participantes desprevenidos. Los moderadores afirmaron que los investigadores desplegaron bots de IA condentfalsas para publicar respuestas persuasivas en varios hilos.
“ Estas respuestas generadas por IA no solo se elaboraron sin revelar información, sino que se presentaron como experiencias reales ”, escribieron los moderadores en la publicación pública. “ Incluían personajes como una superviviente de agresión sexual, un terapeuta especializado en traumas y un hombre negro opuesto al movimiento Black Lives Matter ”
Los bots de IA tienen 6 veces más probabilidades de cambiar las opiniones de los usuarios
Las conversaciones en redes sociales, lideradas por una cuenta X dedicada a debatir opiniones en Reddit, conocida como "Mentiras de Reddit", argumentaban que los bots podrían haber usado desinformación para cambiar la opinión de los usuarios de Reddit. La cuenta afirmaba que el LLM de IA tenía seis veces más probabilidades de convencer a las comunidades que el modelo de referencia.
“ De manera aterradora, más de 100 Redditors otorgaron “deltas” a estos usuarios, lo que sugiere que los argumentos generados por la IA les hicieron cambiar de opinión ”, protestó Reddit Lies en su hilo X.
ÚLTIMA KIN : La Universidad de Zúrich ha estado usando bots de IA para manipular en secreto a los redditors desde noviembre de 2024. ¿
— Mentiras de Reddit (@reddit_lies) 28 de abril de 2025
Lo más aterrador?
Los bots tenían seis veces más probabilidades de cambiar la opinión de los redditors que el promedio, a menudo aprovechando la desinformación.
Más información abajo🧵 pic.twitter.com/mZnhj6I9YS
Algunos de estos comentarios creados por IA aún son visibles en los archivos, aunque muchos de los 1500 comentarios iniciales fueron eliminados tras ser marcados por los moderadores. Un comentario mostraba a un bot que se hacía pasar por un hombre superviviente de estupro, proporcionando una supuesta historia detallada para influir en la opinión durante el debate.
, pero aún existe esa extraña incertidumbre de '¿Lo quería?'. Tenía 15 años, y esto fue hace más de dos décadas, antes de que las leyes de denuncia fueran lo que son hoy. Ella tenía 22 años. Me atacó a mí y a varios otros jóvenes, nadie dijo nada, todos guardamos silencio. Este era su modus operandi .
A principios de abril, los moderadores recibieron un mensaje de los investigadores divulgando el experimento, aprobado por el Comité de Revisión Institucional (CRI) de la Universidad de Zúrich con número de aprobación 24.04.01. Sin embargo, afirmaron que la divulgación se produjo después de la finalización del experimento.
Los investigadores admitieron haber usado varias cuentas para publicar comentarios generados por LLM. Insistieron en que todo el contenido generado por IA se revisaba manualmente para detectar lenguaje ofensivo, pero confesaron haber infringido la norma comunitaria de CMV contra el uso de IA.
El estudio se aprobó inicialmente para probar argumentos basados en valores en un contexto ético donde los usuarios solicitan abiertamente contrapuntos a sus creencias. Sin embargo, según los moderadores, el equipo comenzó a implementar argumentos personalizados y refinados basados en datos personales inferidos, como la edad, el género, la etnia, la ubicación y las inclinaciones políticas del usuario, extraídos de su historial de publicaciones mediante otro LLM .
El uso de personajes de IA fue poco ético
La mayoría de los ejemplos de personajes de IA utilizados en el experimento incluían historias inventadas de trauma edentpolíticamente sensibles. En un caso, un bot de IA acusó a miembros de un grupo religioso de contribuir a muertes masivas, mientras que otro relató haber recibido atención médica inadecuada en el extranjero. Supuestamente, estasdentse utilizaron para generar influencia emocional durante el debate.
El lunes, Ben Lee, director jurídico de Reddit, emitió un comunicado en el que calificaba la investigación de «profundamente errónea, tanto a nivel moral como legal». Reddit confirmó que había prohibido todas las cuentas asociadas con el equipo de investigación de la Universidad de Zúrich y que está preparando acciones legales formales.
“ Estamos en proceso de contactar a la Universidad de Zúrich y a este equipo de investigación en particular con demandas legales formales ”, escribió Lee. “ Queremos hacer todo lo posible para apoyar a la comunidad y garantizar que los investigadores rindan cuentas ”.

