À medida que o mundo se prepara para uma onda de eleições nacionais em 2024, crescem as preocupações sobre o papel da inteligência artificial (IA) na configuração do cenário eleitoral. As plataformas de redes sociais, antes ferramentas essenciais para o engajamento dos eleitores, enfrentam críticas pela diminuição dos esforços de moderação de conteúdo, o que pode permitir a disseminação desenfreada de desinformação e discurso de ódio. Além disso, o surgimento de ferramentas generativas baseadas em IA levanta novas preocupações sobre a disseminação de deepfakes realistas e campanhas de desinformação direcionadas.
Moderação de conteúdo reduzida
As principais plataformas de mídia social, incluindo o Twitter (agora X) e a Meta (proprietária do Facebook, Instagram e WhatsApp), têm visto uma redução no número de moderadores de conteúdo desde o final de 2022. Essa redução, em parte atribuída à reestruturação corporativa, levanta questões sobre a preparação dessas plataformas para as próximas eleições. A desinformação e o discurso de ódio prosperam durante os períodos eleitorais, representando uma ameaça significativa aos processos democráticos em todo o mundo.
Caleidoscópio de incertezas
Katie Harbath, especialista em integridade eleitoral, compara os desafios do combate à desinformação relacionada às eleições a um caleidoscópio, enfatizando a natureza complexa e em constante mudança do problema. Embora as empresas de mídia social afirmem estar comprometidas com a integridade eleitoral, a alocação de recursos revela uma realidade diferente. Muitos acreditam que essas plataformas priorizam as democracias ocidentais, deixando outras desassistidas.
O papel da IA na desinformação
O papel da IA na desinformação vai além do conteúdo textual. Ferramentas de IA generativa, capazes de criar imagens, áudio e vídeo, têm o potencial de impulsionar a disseminação de deepfakes extremamente realistas. Essa tecnologia facilita que agentes maliciosos adaptem a desinformação a públicos específicos, explorando suas vulnerabilidades e crenças.
Guarda-corpos e regulamentos
Para enfrentar esses desafios, diversas iniciativas foram lançadas. Meta, TikTok, Microsoft e YouTube impuseram requisitos de transparência aos criadores de conteúdo e anunciantes políticos que utilizam conteúdo gerado por IA. Governos e organizações internacionais também intervieram com marcos regulatórios, incluindo a ordem executiva sobre IA do governo Biden, a Cúpula de Segurança da IA no Reino Unido, o Conselho Consultivo de IA das Nações Unidas e a Lei de IA da União Europeia, que deve entrar em vigor em 2025.
otimismo cauteloso
Alondra Nelson, figura proeminente nos esforços de regulamentação da IA, expressa um otimismo cauteloso em relação a essas iniciativas. Ela observa que, embora haja progresso, ele ainda está em seus estágios iniciais. Legisladores, representantes da indústria e a sociedade civil enfrentam o desafio de chegar a um consenso sobre o que constitui conteúdo prejudicial gerado por IA e como regulamentá-lo de forma eficaz.
As próximas eleições de 2024 em mais de 50 países, incluindo grandes democracias como os Estados Unidos e a Índia, ressaltam a urgência de se abordar o impacto da IA nos processos eleitorais. A diminuição da moderação de conteúdo nas plataformas de mídia social e a proliferação de ferramentas generativas baseadas em IA representam desafios significativos para a integridade das eleições. Embora esforços regulatórios estejam em andamento, resta saber se eles conseguirão acompanhar o cenário de desinformação impulsionada por IA, que evolui rapidamente. Enquanto o mundo observa, o caleidoscópio da incerteza gira, deixando o futuro da segurança eleitoral em jogo.

