L' Inde vient de lancer un défi qui pourrait bien être impossible à relever. À compter du 20 février, les entreprises de médias sociaux opérant dans le pays devront étiqueter tout contenu utilisant de fausses informations générées par l'IA et supprimer les deepfakes illégaux dans un délai de trois heures. La technologie nécessaire pour ce faire correctement n'existe pas encore .
Les règles, annoncées mardi , incitent les plateformes comme Meta, Google et X à déployer des systèmes capables de détecter et d'étiqueter les images, vidéos et fichiers audio générés par l'IA avant leur diffusion. Les entreprises doivent également empêcher la suppression ou la dissimulation de ces étiquettes. Malgré des ressources colossales , ces géants de la tech peinent à garantir la fiabilité de leurs outils de détection actuels.
La plupart des grandes plateformes utilisent déjà une technologie appelée C2PA, qui intègre des informations invisibles dans les fichiers pour indiquer leur mode de création . C'est un peu comme une étiquette nutritionnelle pour le contenu numérique. Lorsqu'elle fonctionne, elle permet de savoir si une photo provient d'un véritable appareil photo ou d'un générateur d'IA. Facebook, Instagram, YouTube et LinkedIn tentent de signaler ce type de contenu, mais les étiquettes sont faciles à manquer et de nombreux contenus passent entre les mailles du filet.
Le système présente des failles importantes . Les outils et applications d'IA open source qui génèrent de fausses photos de nus s'affranchissent complètement de l'étape d'étiquetage . Même lorsque des étiquettes existent, elles disparaissent lors du chargement des fichiers sur de nombreux sites. Les partisans du C2PA affirment depuis des années que cette technologie a simplement besoin d'une adoption plus large pour réussir. L'Inde s'apprête à mettre cette affirmation à l'épreuve avec ses 500 millions d'utilisateurs de réseaux sociaux.
Pourquoi le pouvoir de marché de l'Inde change tout
L'Inde compte 481 millions d'utilisateurs d'Instagram, 403 millions sur Facebook, 500 millions de spectateurs sur YouTube et 213 millions d'utilisateurs de Snapchat. X considère l'Inde comme son troisième marché le plus important. Lorsqu'un pays aussi vaste et non pas seulement localement.
Cette initiative fait suite à des mois de gestion de la crise . Cryptopolitan rapportait en octobre dernier que les acteurs de Bollywood Abhishek Bachchan et Aishwarya Rai Bachchan avaient porté plainte contre YouTube pour diffusion de fausses vidéos utilisant leurs visages, réclamant près d'un demi-million de dollars de dommages et intérêts. Le couple affirmait que les formateurs d'intelligence artificielle de YouTube avaient récupéré du contenu public sans autorisation afin d'entraîner des systèmes qui créaient ensuite de faux contenus à partir de leurs images. Des affaires comme celle-ci, ainsi que la diffusion virale de fausses vidéos de l'actrice Rashmika Mandanna, ont incité les autorités à agir .
Ce calendrier coïncide avec les ambitions de l'Inde en matière d'IA. Google construit à Visakhapatnam un centre d'IA de 15 milliards de dollars qui deviendra son plus grand site hors des États-Unis. Doté d'une puissance de calcul de l'ordre du gigawatt, ce site devrait ouvrir ses portes en juillet 2028. Face à l'arrivée d'une telle infrastructure d'IA, les autorités de régulation souhaitent au préalable mettre en place des règles de sécurité des contenus.
Des critiques mettent en garde contre une « censure à la chaîne »
Ces délais très courts inquiètent les défenseurs de la liberté d'expression. L'Internet Freedom Foundation affirme que le délai de retrait de trois heures obligera les entreprises à utiliser des systèmes automatisés susceptibles de supprimer par erreur une quantité excessive de contenu. Elle dénonce la création de « censeurs à la chaîne », car il n'y a pas le temps pour que des humains examinent correctement les signalements.
Les plateformes comme X, qui n'ont pas encore mis en place de système d'étiquetage par IA, n'ont plus que neuf jours pour développer des systèmes complets. Meta, Google et X ont refusé de commenter. Adobe, la société à l'origine de C2PA, est également silencieuse .
Les responsables de la rédaction de ces règles semblent conscients que la technologie actuelle n'est pas encore au point. Les exigences stipulent que les plateformes doivent utiliser des méthodes de détection « dans la mesure du possible techniquement » – une formulation juridique qui admet que la perfection n'est pas attendue . Les dirigeants indiens pensent que la pression favorisera l'innovation. Ils parient que si l'on oblige les entreprises technologiques à concevoir de meilleurs systèmes sous peine de perdre l'accès à des centaines de millions d'utilisateurs, elles trouveront rapidement .
Reste à savoir si une technologie de détection par IA plus performante existe réellement ou si l'Inde simplement commandé à des entreprises une solution encore impossible réaliser Réponse dans neuf jours.

