Um projeto de pesquisa na área de investigação de mídias sociais foi conduzido pela equipe da Universidade de Notre Dame, onde descobriram que o público em geral enfrenta muitas dificuldades para distinguir humanos de inteligência artificial durante discussões políticas em diferentes plataformas online.
A pesquisa, dividida em três rodadas com uma plataforma Mastodon personalizada como meio de aplicação, indica que os participantes confundem bots de IA com humanos em 58% dos casos.
Bots de IA confundem fronteiras humanas no discurso político, revela estudo
A equipe de investigação, sob a orientação do Dr. Paul Brenner do Centro de Computação Científica da Universidade de Notre Dame, adotou bots de IA baseados em redes generativas, incluindo GPT4, Llama-2-Chat e Claude 2.
Esta geração de chatbots foi projetada com personalidades diversas para serem usados como atores políticos no campo dos assuntos mundiais, assumindo com frequência características humanas e participando de diferentes discussões políticas.
O mais interessante era que cada bot tinha um personagem (o surgimento de uma personalidade com um perfil detalhado) que era instruído a traçar uma relação entre experiências pessoais e eventos do mundo em geral.
Em relação à manipulação de dados, apesar de o painel entender que estava interagindo com humanos e bots, cerca de metade desse grupo amostral não conseguiu diferenciar entre inteligência artificial e humanos reais.
Essas evidências demonstram que os bots de IA podem imitar os humanos de forma muito semelhante em seus padrões de conversação, aumentando assim as chances de serem usados na disseminação de desinformação.
O papel da IA na desinformação
O Sr. Paul Brenner levantou questões como a adoção desses bots de IA e seu provável efeito cascata, uma oportunidade para que bots com inteligência artificial influenciem a opinião pública e possivelmente espalhem desinformação.
Ele explicou que a IA em simulações é tão eficaz que qualquer pessoa na internet pode ser facilmente enganada quanto à fonte original da informação.
Outro aspecto importante destacado neste estudo foi a avaliação de diferentes modelos de IA no processo, mostrando que as taxas de precisão variaram pouco entre os diversos modelos de aprendizado de máquina. Isso nos permite compreender que mesmo modelos menos sofisticados podem ser suficientemente convincentes na criação de conversas semelhantes às humanas em cenários de interação em mídias sociais.
Assim, entre outras coisas, na primeira linha, Brenner destacou sua posição sobre a abordagem multidimensional para a prevenção da disseminação de informações falsas com o auxílio da IA.
Essas iniciativas, como campanhas educativas, ações legislativas e uma validação mais rigorosa de contas em redes sociais, contribuirão mutuamente para a resolução completa desse problema. Além disso, serão consideradas as dimensões da saúde psicológica dos adolescentes influenciadas pela IA, e estratégias para mitigar esse impacto serão desenvolvidas.
Este projeto de pesquisa destaca o desequilíbrio entre a inteligência artificial e a integridade da informação online nas redes sociais, o que exige o desenvolvimento de estratégias integradas para lidar com a situação.

