À l'approche des élections anticipées du 5 mars, un faux film mettant en scène trois personnalités politiques népalaises a révélé comment l'IA est utilisée comme une arme.
La vidéo, entièrement générée par ordinateur, montrait l'ancien maire de Katmandou, Balendra Shah, l'ancien directeur du secteur de l'électricité, Kulman Ghising, et le chef du parti Rastriya Swatantra, Rabi Lamichhane, marchant ensemble.
Beaucoup ont cru à la naissance d'une nouvelle alliance politique après la diffusion virale de la vidéo sur Internet. Cependant, la rencontre ayant été entièrement générée par ordinateur, les trois politiciens ne se sont jamais réellement rencontrés.
Des faux enregistrements audio se propagent via les réseaux
Cette fausse vidéo n'est qu'un exemple parmi d'autres de contenus générés par l'IA qui inondent désormais les espaces numériques népalais à l'approche des élections. Ce scrutin se tient seulement six mois après de violentes manifestations menées par des jeunes réclamant la fin de la corruption. Ces protestations avaient contraint le Premier ministre de l'époque, KP Sharma Oli, à la démission et plongé le système politique du pays dans le chaos.
Les falsifications numériques visant des personnalités publiques ont prospéré en raison de cette crise de confiance. Le vice-dentdu Parti nationaliste du peuple (Rastriya Swatantra Party), Swarnim Wagle, a porté plainte auprès du Bureau cybernétique de la police népalaise. Un faux enregistrement audio a été réalisé pour faire croire qu'il s'était entretenu avec le Premier ministre indien, ce qui n'a jamais eu lieu.
Ces faux messages audio présentent des risques spécifiques au Népal, comme l'ont démontré les vérifications de faits menées par Poynter. Les messages vocaux circulent rapidement dans les groupes de discussion familiaux et sur les réseaux sociaux, atteignant souvent des destinataires incapables d'en confirmer l'authenticité. Le manque de fiabilité des outils utilisés pour identifier les enregistrementsdentaltérés limite considérablement les moyens des citoyens de distinguer le vrai du faux.
Les tentatives du gouvernement pour maîtriser le problème ont souvent aggravé la situation. Faute d'enregistrement auprès des autorités de régulation, Facebook, X et YouTube ont été bloqués lors des manifestations de septembre.
L'interdiction a déclenché une vague de violence au lieu d'apaiser les tensions. Reuters a recensé au moins 77 morts et des milliers de blessés lors des troubles qui ont suivi. Les autorités ont finalement levé les restrictions, mais cetdent a démontré l'inefficacité des mesures de blocage autoritaires. La désinformation s'est simplement propagée vers des canaux plus difficiles à contrôler.
La Commission électorale du Népal a tenté de relever ces défis par le biais de politiques publiques. Sa « Politique relative à l’ utilisation des médias sociaux dans la gestion des élections» de 2021 a établi des orientations initiales. Un nouveau projet de code de conduite pour le scrutin à venir interdit explicitement la diffusion de fausses informations et la création de faux comptes destinés à influencer les électeurs.
Cependant, les spécialistes avertissent que ces règles doivent être mises à jour sans délai à l'ère de l'IA générative. Des questions demeurent : qu'est-ce qui constitue exactement un média synthétique ? Les campagnes doivent-elles divulguer le contenu créé avec l'aide de l'IA ? Qui est responsable de la diffusion de fausses informations ?
Des experts appellent à une réponse
En l'absence de réglementation parfaite, les spécialistes et les groupes de surveillance militent pour des solutions plus globales. Poynter et d'autres organisations médiatiques similaires recommandent plusieurs mesures : les médias et les vérificateurs de faits devraient enquêter sur chaque vidéo virale comme sur un crime, tracà son origine et en démontrant comment ils l'ont vérifiée.
Les partis politiques et les candidats devraient s'engager à ne pas utiliser de deepfakes et à identifier clairement tout contenu créé par intelligence artificielle. Les entreprises de médias sociaux devraient mettre en place des équipes d'intervention rapide connaissant les langues et le contexte politique népalais. Les citoyens devraient adopter une approche de « triage en dix secondes » : vérifier et confirmer les informations avant de partager des allégations choquantes.
Le Bureau de la cybercriminalité de la police népalaise se prépare déjà à des attaques plus sophistiquées sur le plan technique. SP Ray, un responsable du bureau, a déclaré : « L’IA prend de l’ampleur et ses applications se multiplient. Nous pourrions bientôt assister à des crimes et des cyberattaques facilités par l’IA.»
Ray a également souligné que la relative nouveauté de cette technologie pourrait offrir un certain répit. Il estime que l'intelligence n'en est qu'à ses balbutiements et que son adoption par le grand public est encore récente ; il faudra donc peut-être un peu plus de temps avant qu'elle ne soit utilisée comme outil de destruction.
« Nous sommes bien équipés pour lutter contre ces crimes et ces menaces, et nous devons l’être », a déclaré Ray. Il a ajouté, pour rassurer le public : « La police népalaise peut enquêter sur toute action. Seules les attaques provenant de l’étranger nécessiteront du temps pour être examinées .»

