Uma investigação recente revelou uma tendência preocupante de chatbots de IA disseminando informações falsas e enganosas sobre as eleições de 2024. Essa revelação vem de um estudo colaborativo conduzido pelo AI Democracy Projects e pela Proof News, uma organização de mídia sem fins lucrativos. As descobertas destacam a necessidade urgente de supervisão regulatória, visto que a IA continua a desempenhar um papel significativo no discurso político.
Desinformação em um momento crítico
O estudo aponta que essas imprecisões geradas por IA estão surgindo durante o período crucial das primáriasdentnos Estados Unidos. Com um número crescente de pessoas recorrendo à IA para obter informações relacionadas às eleições, a disseminação de dados incorretos é particularmente preocupante. A pesquisa testou vários modelos de IA, incluindo o ChatGPT-4 da OpenAI, o Llama 2 da Meta, o Claude da Anthropic, o Gemini do Google e o Mixtral da empresa francesa Mistral. Constatou-se que essas plataformas forneciam aos eleitores locais de votação incorretos, métodos de votação ilegais e prazos de inscrição falsos, entre outras informações errôneas.
Um exemplo alarmante citado foi a alegação do Llama 2 de que os eleitores da Califórnia poderiam votar por mensagem de texto, um método ilegal nos Estados Unidos. Além disso, nenhum dos modelos de IA testadosdentcorretamente a proibição de vestimentas com logotipos de campanha, como bonés MAGA, em locais de votação no Texas. Essa disseminação generalizada de informações falsas tem o potencial de enganar os eleitores e prejudicar o processo eleitoral.
Resposta da indústria e preocupação pública
A disseminação de desinformação por meio de inteligência artificial (IA) provocou reações tanto da indústria de tecnologia quanto do público. Algumas empresas de tecnologia reconheceram os erros e se comprometeram a corrigi-los. Por exemplo, a Anthropic planeja lançar uma versão atualizada de sua ferramenta de IA com informações eleitorais precisas. A OpenAI também expressou sua intenção de refinar continuamente sua abordagem com base nas formas como suas ferramentas são utilizadas. No entanto, a resposta da Meta, descartando as descobertas como "sem sentido", gerou controvérsia, levantando questionamentos sobre o compromisso da indústria de tecnologia em combater a desinformação.
A preocupação pública também está crescendo. Uma pesquisa do Centro de Pesquisa de Assuntos Públicos da Associated Press-NORC e da Escola de Políticas Públicas Harris da Universidade de Chicago revela um temor generalizado de que as ferramentas de IA contribuam para a disseminação de informações falsas e enganosas durante o ano eleitoral. Essa preocupação é amplificada pordentrecentes, como a IA Gemini do Google, que gerou imagens historicamente imprecisas e racialmente insensíveis.
O apelo à regulamentação e à responsabilidade
As conclusões do estudo sublinham a necessidade urgente de medidas legislativas para regulamentar o uso da IA em contextos políticos. Atualmente, a falta de leis específicas que regem a IA na política deixa as empresas de tecnologia à própria sorte, situação que tem levado a lapsos significativos na precisão da informação. Cerca de duas semanas antes da publicação do estudo, as empresas de tecnologia concordaram voluntariamente em adotar precauções para impedir que suas ferramentas gerassem conteúdo realista que desinformasse os eleitores sobre os procedimentos legais de votação. No entanto, os erros e as falsidades recentes lançam dúvidas sobre a eficácia dessas medidas voluntárias.
À medida que a IA se integra cada vez mais a todos os aspectos da vida cotidiana, inclusive na esfera política, a necessidade de regulamentações abrangentes e aplicáveis torna-se cada vez mais evidente. Essas regulamentações devem visar garantir a precisão do conteúdo gerado por IA, especialmente quando se trata de processos democráticos cruciais, como eleições. Somente por meio de uma combinação de responsabilidade da indústria e supervisão regulatória será possível restaurar e manter a confiança pública na IA como fonte de informação.
O recente estudo sobre chatbots de IA disseminando mentiras eleitorais serve como um alerta para os perigos potenciais da IA não regulamentada no domínio político. Enquanto as empresas de tecnologia trabalham para solucionar esses problemas, o papel da supervisão governamental não pode ser subestimado. Garantir a integridade das informações relacionadas às eleições é fundamental para a manutenção dos valores e processos democráticos.

