Face aux inquiétudes croissantes concernant la prolifération des contenus générés par l'IA, les principales entreprises technologiques ont annoncé des initiatives visant à détecter et à étiqueter ces contenus.
Ces efforts interviennent à la suite d'incidents dent que le scandale de la pornographie truquée de Taylor Swift et la propagation des deepfakes politiques.
Les géants de la tech collaborent pour étiqueter et détecter les contenus générés par l'IA.
Meta, anciennement Facebook, a annoncé son intention d'étiqueter les images générées par IA sur ses plateformes, notamment Facebook, Instagram et Threads. Ces étiquettes, marqueurs visibles, filigranes invisibles et métadonnées intégrées aux fichiers image visent à accroître la transparence et la traçabilité concernant l'origine des contenus.
Google, de son côté, a rejoint le comité de pilotage de la C2PA (Content Authenticity Initiative), soutenant ainsi un protocole internet open source conçu pour fournir des « étiquettes nutritionnelles » au contenu. Cette initiative témoigne d'un effort de collaboration entre les géants de la technologie pour établir des normes sectorielles en matière de détection du contenu généré par l'IA.
OpenAI met en œuvre des mesures de provenance du contenu
OpenAI a également mis en place des mesures pour remédier à ce problème. L'entreprise ajoutera des filigranes aux métadonnées des images générées par ses modèles d'IA, ChatGPT et DALL-E 3, fournissant ainsi une étiquette visible indiquant l'intervention de l'IA dans la création du contenu.
Bien que ces méthodes représentent un progrès, elles ne sont pas infaillibles, des défis subsistant en matière d'étiquetage et de détection des vidéos, des fichiers audio et des textes générés par l'IA.
Défis et perspectives d'avenir
Malgré les progrès réalisés en matière d'étiquetage et de marquage de contenu, des limitations techniques persistent. Les filigranes dans les métadonnées peuvent être contournés par capture d'écran, tandis que les étiquettes visuelles sont susceptibles d'être recadrées ou modifiées. Les filigranes invisibles, comme SynthID de Google, offrent une plus grande résistance, mais ne sont pas sans inconvénients.
Nécessité de cadres réglementaires
Outre les mesures volontaires, les cadres réglementaires gagnent tracterrain. Des initiatives telles que la loi européenne sur l'IA et la loi sur les services numériques imposent la divulgation des contenus générés par l'IA et le retrait rapide des contenus préjudiciables. Aux États-Unis, les législateurs envisagent également des règles contraignantes concernant les deepfakes, la Commission fédérale des communications ayant récemment interdit l'utilisation de l'IA dans les appels automatisés.
Bien que les lignes directrices volontaires constituent un pas dans la bonne direction, des inquiétudes persistent quant à la responsabilité du secteur. L'historique d'autorégulation du secteur technologique soulève des doutes quant à l'efficacité des mesures volontaires. Cependant, les annonces récentes témoignent d'un progrès par rapport à l'inaction précédente.

