Alors que le monde se prépare à une vague d'élections nationales en 2024, les inquiétudes grandissent quant au rôle de l'intelligence artificielle (IA) dans la structuration du paysage électoral. Les plateformes de médias sociaux, autrefois essentielles à la mobilisation des électeurs, sont critiquées pour la faiblesse de leur modération des contenus, ce qui risque de favoriser la prolifération de la désinformation et des discours haineux. Par ailleurs, l'émergence d'outils génératifs basés sur l'IA soulève de nouvelles préoccupations concernant la diffusion de deepfakes réalistes et de campagnes de désinformation ciblées.
Diminution de la modération du contenu
Les principales plateformes de médias sociaux, dont Twitter (désormais X) et Meta (propriétaire de Facebook, Instagram et WhatsApp), ont constaté une réduction de leurs effectifs de modérateurs de contenu depuis fin 2022. Cette réduction, en partie imputable à une restructuration de l'entreprise, soulève des questions quant à leur capacité à gérer les élections à venir. La désinformation et les discours haineux prospèrent en période électorale, constituant une menace importante pour les processus démocratiques à travers le monde.
Kaléidoscope d'incertitude
Katie Harbath, experte en intégrité électorale, compare les défis posés par la lutte contre la désinformation liée aux élections à un kaléidoscope, soulignant ainsi la complexité et l'évolution constante du problème. Si les entreprises de médias sociaux affirment être attachées à l'intégrité des élections, la répartition des ressources révèle une tout autre réalité. Nombreux sont ceux qui estiment que ces plateformes privilégient les démocraties occidentales, au détriment des autres.
Le rôle de l'IA dans la désinformation
Le rôle de l'IA dans la désinformation ne se limite pas aux contenus textuels. Les outils d'IA générative, capables de créer des images, des fichiers audio et vidéo, risquent d'alimenter la diffusion de deepfakes d'un réalisme saisissant. Cette technologie permet aux acteurs malveillants d'adapter plus facilement la désinformation à des publics spécifiques, en exploitant leurs vulnérabilités et leurs croyances.
Garde-fous et réglementations
Pour relever ces défis, diverses initiatives ont été lancées. Meta, TikTok, Microsoft et YouTube ont imposé des obligations de transparence aux créateurs et aux annonceurs politiques utilisant des contenus générés par l'IA. Les gouvernements et les organisations internationales sont également intervenus en proposant des cadres réglementaires, notamment le décret présidentiel de l'administration Biden sur l'IA, le Sommet sur la sécurité de l'IA au Royaume-Uni, le Conseil consultatif des Nations Unies sur l'IA et la loi européenne sur l'IA, dont l'entrée en vigueur est prévue en 2025.
optimisme prudent
Alondra Nelson, figure de proue de la régulation de l'IA, se montre prudemment optimiste quant à ces initiatives. Elle souligne que, malgré les progrès accomplis, le processus n'en est qu'à ses débuts. Les décideurs politiques, les acteurs du secteur et la société civile doivent relever le défi de parvenir à un consensus sur la définition des contenus nuisibles générés par l'IA et sur les moyens de les réguler efficacement.
Les élections de 2024, qui se tiendront dans plus de 50 pays, dont des démocraties majeures comme les États-Unis et l'Inde, soulignent l'urgence de s'attaquer à l'impact de l'IA sur les processus électoraux. La modération des contenus, en baisse sur les réseaux sociaux, et la prolifération d'outils de génération de fausses informations basés sur l'IA constituent des menaces importantes pour l'intégrité des élections. Bien que des mesures réglementaires soient en cours, leur capacité à suivre le rythme de l'évolution rapide de la désinformation alimentée par l'IA reste incertaine. Sous le regard du monde entier, l'incertitude grandit et l'avenir de la sécurité des élections est en jeu.

