ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

A Universidade de Zurique está em apuros por usar bots de IA para moldar e manipular as mentes dos usuários do Reddit sem consentimento

PorFlorença MuchaiFlorença Muchai
Tempo de leitura: 3 minutos
A Universidade de Zurique está em apuros por usar bots de IA para moldar e manipular as mentes dos usuários do Reddit sem consentimento.
  • Pesquisadores da Universidade de Zurique enfrentam críticas por usar bots de IA em um experimento no Reddit sem o consentimento dos usuários.
  • Personas geradas por IA, incluindo sobreviventes de traumas fictícios, foram usadas para influenciar opiniões no subreddit r/changemyview.
  • O Reddit baniu as contas envolvidas, classificou a pesquisa como moral e legalmente errada e está preparando uma ação judicial.

Pesquisadores da Universidade de Zurique podem enfrentar problemas legais por conduzirem um experimento psicológico com usuários do Reddit sem o consentimento deles. O estudo foi realizado ao longo de quatro meses no subreddit r/changemyview, utilizando comentários gerados por inteligência artificial para observar se grandes modelos de linguagem (LLMs, na sigla em inglês) poderiam influenciar as opiniões dos usuários. 

De acordo com uma publicação no Reddit, moderadores do subreddit CMV, com 3,8 milhões de membros, descreveram a pesquisa como "manipulação psicológica" de participantes desavisados. Os moderadores afirmaram que os pesquisadores utilizaram bots de IA comdentfalsas para postar respostas persuasivas em diversos tópicos.

Essas respostas geradas por IA não foram apenas criadas sem divulgação, mas apresentadas como experiências reais e vividas”, escreveram os moderadores na publicação pública. “Elasincluíam personas como uma sobrevivente de agressão sexual, uma conselheira especializada em traumas e um homem negro contrário ao movimento Black Lives Matter.

Bots de IA têm 6 vezes mais probabilidade de mudar a opinião dos usuários

Discussões nas redes sociais, lideradas por uma conta X dedicada a debater opiniões no Reddit, apelidada de "Reddit Lies", argumentavam que os bots poderiam ter usado desinformação para influenciar a opinião dos usuários do Reddit. A conta alegava que o modelo de aprendizado de máquina com IA tinha seis vezes mais chances de convencer as comunidades do que o modelo padrão.

De forma assustadora, mais de 100 usuários do Reddit atribuíram “deltas” a esses usuários, sugerindo que os argumentos gerados pela IA os fizeram mudar de ideia”, protestou o Reddit Lies em seu tópico no Reddit.

Alguns desses comentários criados por IA ainda são visíveis nos arquivos, embora muitos dos 1500 comentários iniciais tenham sido removidos após serem sinalizados pelos moderadores. Um dos comentários apresentava um bot se passando por um homem sobrevivente de estupro de vulnerável, relatando uma suposta história detalhada para influenciar a opinião durante o debate.

Sou um sobrevivente do sexo masculino de (como eu diria) estupro de vulnerável. Quando os limites legais do consentimento são ultrapassados, mas ainda existe aquela estranha área cinzenta de 'eu queria?'. Eu tinha 15 anos, e isso aconteceu há mais de duas décadas, antes das leis de denúncia serem como são hoje. Ela tinha 22. Ela me escolheu como alvo, assim como vários outros jovens, ninguém disse nada, todos ficamos em silêncio. Esse era o modus operandi dela”, dizia o texto.

No início de abril, os moderadores receberam uma mensagem dos pesquisadores divulgando o experimento, que havia sido aprovado pelo Comitê de Revisão Institucional (IRB) da Universidade de Zurique, número de aprovação 24.04.01. No entanto, eles alegaram que a divulgação ocorreu após a conclusão do experimento.

Os pesquisadores admitiram ter usado múltiplas contas para publicar comentários gerados por LLMs. Eles insistiram que todo o conteúdo gerado por IA foi revisado manualmente para detectar linguagem prejudicial, mas confessaram ter violado a regra da comunidade CMV contra o uso de IA.

O estudo foi inicialmente aprovado para testar “argumentos baseados em valores” em um contexto ético onde os usuários solicitam abertamente contrapontos às suas crenças. No entanto, de acordo com os moderadores, a equipe começou a implementar “argumentos personalizados e refinados” com base em dados pessoais inferidos, como idade, gênero, etnia, localização e inclinações políticas do usuário, extraídos de seu histórico de postagens usando outro LLM.

O uso de personagens de IA foi considerado antiético

A maioria dos exemplos de personas de IA usadas no experimento incluía histórias fabricadas de trauma edentpoliticamente sensíveis. Em um caso, um bot de IA acusou membros de um grupo religioso de contribuírem para mortes em massa, enquanto outro relatou ter recebido atendimento médico inadequado no exterior. Essasdentforam supostamente usadas para gerar vantagem emocional durante o debate.

Na segunda-feira, o diretor jurídico do Reddit, Ben Lee, emitiu um comunicado classificando a pesquisa como "profundamente errada tanto do ponto de vista moral quanto legal". O Reddit confirmou ter banido todas as contas associadas à equipe de pesquisa da Universidade de Zurique e que está preparando uma ação judicial formal.

Estamos em processo de contato com a Universidade de Zurique e com essa equipe de pesquisa específica para apresentar demandas legais formais”, escreveu Lee. “Queremos fazer tudo o que estiver ao nosso alcance para apoiar a comunidade e garantir que os pesquisadores sejam responsabilizados.”

As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas.

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO