A medida que el mundo se prepara para una oleada de elecciones nacionales en 2024, crece la preocupación sobre el papel de la inteligencia artificial (IA) en la configuración del panorama electoral. Las plataformas de redes sociales, que antes eran herramientas esenciales para la participación de los votantes, enfrentan críticas por su menor moderación de contenido, lo que podría permitir la proliferación de la desinformación y el discurso de odio. Además, la aparición de herramientas generativas basadas en IA plantea nuevas preocupaciones sobre la difusión de deepfakes realistas y campañas de desinformación dirigidas.
Moderación de contenido reducida
Las principales plataformas de redes sociales, como Twitter (ahora X) y Meta (propietaria de Facebook, Instagram y WhatsApp), han experimentado una reducción de moderadores de contenido desde finales de 2022. Esta reducción, atribuida en parte a la reestructuración corporativa, ha suscitado dudas sobre su preparación para las próximas elecciones. La desinformación y el discurso de odio proliferan durante los periodos electorales, lo que supone una amenaza significativa para los procesos democráticos en todo el mundo.
Caleidoscopio de incertidumbre
Katie Harbath, experta en integridad electoral, compara los desafíos de combatir la desinformación electoral con un caleidoscopio, enfatizando la naturaleza compleja y cambiante del problema. Si bien las empresas de redes sociales afirman estar comprometidas con la integridad electoral, la asignación de recursos cuenta una historia diferente. Muchos creen que estas plataformas priorizan a las democracias occidentales, dejando a otras desatendidas.
El papel de la IA en la desinformación
El papel de la IA en la desinformación va más allá del contenido textual. Las herramientas de IA generativa, capaces de crear imágenes, audio y vídeo, tienen el potencial de impulsar la propagación de deepfakes de gran realismo. Esta tecnología facilita que actores maliciosos adapten la desinformación a públicos específicos, explotando sus vulnerabilidades y creencias.
Barandillas y regulaciones
Para abordar estos desafíos, se han puesto en marcha diversas iniciativas. Meta, TikTok, Microsoft y YouTube han impuesto requisitos de divulgación a los creadores y anunciantes políticos que utilizan contenido generado por IA. Gobiernos y organizaciones internacionales también han intervenido con marcos regulatorios, como la orden ejecutiva de la administración Biden sobre IA, la Cumbre de Seguridad de la IA en el Reino Unido, el consejo asesor de IA de las Naciones Unidas y la Ley de IA de la Unión Europea, cuya entrada en vigor está prevista para 2025.
Optimismo cauteloso
Alondra Nelson, figura destacada en la regulación de la IA, se muestra cautelosamente optimista respecto a estas iniciativas. Señala que, si bien se están logrando avances, estos aún se encuentran en sus etapas iniciales. Los responsables políticos, las partes interesadas del sector y la sociedad civil se enfrentan al reto de alcanzar un consenso sobre qué constituye contenido dañino generado por IA y cómo regularlo eficazmente.
Las próximas elecciones de 2024 en más de 50 países, incluyendo importantes democracias como Estados Unidos e India, subrayan la urgencia de abordar el impacto de la IA en los procesos electorales. La menor moderación de contenido en las redes sociales y la proliferación de herramientas generativas impulsadas por IA plantean importantes desafíos para la integridad electoral. Si bien se están llevando a cabo iniciativas regulatorias, aún está por verse si podrán seguir el ritmo de la rápida evolución de la desinformación impulsada por IA. Ante la mirada mundial, el caleidoscopio de incertidumbre gira, dejando el futuro de la seguridad electoral en la cuerda floja.

