Pesquisadores da Universidade de Zurique podem enfrentar problemas legais por conduzir um experimento psicológico sobre usuários do Reddit sem o seu consentimento. O estudo foi realizado ao longo de quatro meses no Subreddit R/Changemyview, usando comentários gerados por inteligência artificial para observar se os grandes modelos de linguagem (LLMs) poderiam influenciar as opiniões dos usuários.
De acordo com um tópico do Reddit publicado, os moderadores do Subreddit CMV de 3,8 milhões de membros descreveram a pesquisa como "manipulação psicológica" de participantes desavisados. Os mods disseram que os pesquisadores implantaram bots de IA comdentfabricados para publicar respostas persuasivas em vários tópicos.
" Essas respostas geradas pela IA não foram apenas criadas sem divulgação, mas apresentadas como experiências reais e vividas ", escreveram os moderadores no post público. "Eles incluíram personas como um sobrevivente de agressão sexual, um conselheiro de trauma especializado em abuso e um homem negro que oposto à Black Lives Matter "
Ai Bots 6 vezes a probabilidade de mudar as opiniões dos usuários
As conversas das mídias sociais, lideradas por uma conta X dedicada a discutir opiniões sobre o Reddit apelidado de 'Reddit Lies', argumentou que os bots poderiam ter usado desinformação para mudar a mente dos redditores. A conta alegou que o AI LLM teve seis vezes mais chances de convencer as comunidades do que a linha de base.
“ Terrorizantemente, mais de 100 redditores concederam“ deltas ”a esses usuários, sugerindo que os argumentos gerados pela IA mudaram de idéia ”, protestou o Reddit em seu thread x.
Brea KIN G: A Universidade de Zurique usa os bots da AI para manipular secretamente os redditores desde novembro de 2024.
- Reddit Lies (@reddit_lies) 28 de abril de 2025
A parte mais assustadora?
Os bots tinham 6 vezes mais chances de mudar a mente dos redditores do que a linha de base, geralmente alavancando a desinformação.
Mais abaixo🧵 pic.twitter.com/mznhj6i9ys
Alguns desses comentários artesanais da AI ainda são visíveis por meio de arquivos, embora muitos dos 1500 comentários iniciais tenham sido removidos após serem sinalizados por moderadores. Um comentário contou com um bot representando um sobrevivente masculino de estupro estatutário, dando uma suposta história detalhada para influenciar a opinião durante o debate.
“ Sou um sobrevivente masculino de (disposto a chamá -lo) estupro estatutário. Quando as linhas legais de consentimento são violadas, mas ainda há aquela estranha área cinzenta de 'Eu queria?' de duas décadas antes de relatar as leis do que são hoje.
No início de abril, os moderadores receberam uma mensagem dos pesquisadores divulgando o experimento, que foi aprovado pelo Conselho de Revisão Institucional da Universidade de Zurique (IRB), número de aprovação 24.04.01. No entanto, eles propuseram que a divulgação ocorreu após a conclusão do experimento.
Os pesquisadores admitiram usar várias contas para publicar comentários gerados pelo LLMS. Eles insistiram que todo o conteúdo gerado pela IA foi revisado manualmente para linguagem prejudicial, mas confessou violar a regra da comunidade da CMV contra o uso da IA.
O estudo foi inicialmente aprovado para testar “argumentos baseados em valor” em um contexto ético em que os usuários solicitam aberturas contrapoints às suas crenças. No entanto, de acordo com os moderadores, a equipe começou a implantar "argumentos personalizados e ajustados" com base em dados pessoais inferidos, como a idade de um usuário, gênero, etnia, localização e inclinações políticas, raspadas de sua história de publicação usando outro LLM .
O uso de caracteres de IA era antiético
A maioria dos exemplos de personas de IA usada no experimento incluiu histórias fabricadas de trauma edentpoliticamente sensíveis. Em um caso, um bot da IA acusou os membros de um grupo religioso de contribuir para mortes em massa, enquanto outro contou o recebimento de assistência médica inadequada no exterior. Essasdentforam supostamente implantadas para aumentar a alavancagem emocional durante o debate.
Na segunda -feira, o diretor jurídico do Reddit, Ben Lee, emitiu uma declaração chamando a pesquisa de "profundamente errada em um nível moral e legal". O Reddit confirmou que proibiu todas as contas associadas à equipe de pesquisa da Universidade de Zurique e que está preparando ações legais formais.
" Estamos no processo de chegar à Universidade de Zurique e a essa equipe de pesquisa em particular com demandas legais formais ", escreveu Lee. " Queremos fazer tudo o que pudermos para apoiar a comunidade e garantir que os pesquisadores sejam responsabilizados ".
Academia Cryptopolitan: Quer aumentar seu dinheiro em 2025? Aprenda a fazê -lo com DeFi em nossa próxima webclass. Salve seu lugar