Meta, anciennement connue sous le nom de Facebook, a dévoilé une politique élargie visant à relever les défis liés à la prolifération des générés par l'IA sur ses plateformes, notamment Facebook, Instagram et Threads.
Face à l'essor de l'intelligence artificielle générative, l'entreprise apposera désormais des avertissements sur les images générées par l'IA afin d'informer les utilisateurs de leur origine artificielle. Bien que cette mesure soit perçue comme un pas dans la bonne direction, des inquiétudes subsistent quant à son efficacité pour lutter contre les acteurs malveillants et aux limites de cette technologie.
Étiquettes d'avertissement sur les images générées par l'IA
La dernière modification de la politique de Meta consiste à étiqueter les images générées par IA, qu'elles soient créées à l'aide de ses propres outils d'IA générative ou de ceux fournis par d'autres entreprises, avec des étiquettes indiquant leur nature artificielle. Cette mesure vise à réduire le risque de diffusion de fausses informations et de désinformation par des images générées par IA présentées comme de véritables photos.
Meta étiquette les images produites par son IA comme étant « Imaginées avec l'IA », principalement endentle filigrane numérique intégré par ses algorithmes dans le résultat.
Défis et limites
Malgré l'engagement de Meta à mettre en œuvre ces avertissements, d'importants défis persistent. L'un des plus notables est que de nombreux outils de génération d'images par IA n'ajoutent pas de filigrane à leurs résultats, ce qui permet à des personnes malveillantes de manipuler et de diffuser facilement du contenu généré par IA sans que cela soit signalé.
De plus, la technologie permettant de détecter et d'étiqueter de manière fiable les images générées par l'IA est encore en développement, et il n'existe aucune norme universellement déployée.
La Coalition pour la provenance et l'authenticité des contenus (C2PA), une initiative fondée par Adobe, s'efforce d'harmoniser les pratiques des entreprises en matière de provenance des contenus. Cependant, la technologie développée à ce jour n'est pas infaillible.
Des chercheurs ont démontré la facilité avec laquelle les filigranes peuvent être contournés ou ajoutés à des images non générées par l'IA, ce qui compromet leur efficacité.
Hany Farid, professeur à l'École d'information de l'UC Berkeley et conseiller de l'initiative C2PA, prévient que les personnes mal intentionnées pourraient utiliser des outils d'IA qui n'apposent pas de filigrane sur leurs résultats pour tromper davantage les utilisateurs.
Il suggère qu'une combinaison dedentde hachage les technologies, pourrait être nécessaire pour identifier de manière fiabledentcontenus générés par l'IA. Le tatouage numérique est moins développé pour les médias générés par l'IA autres que les images, comme l'audio et la vidéo.
Élargissement des politiques et de la surveillance
Bien que les nouvelles politiques de Meta constituent un progrès dans la lutte contre les contenus mensongers, elles ne se limitent pas aux contenus générés par l'IA. Le comité de surveillance de l'entreprise, composé d'expertsdent , a récemment confirmé la décision de Meta de maintenir en ligne une vidéo dudent Joe Biden qui avait été modifiée pour induire en erreur.
Cette décision souligne la nécessité pour Meta de revoir et d'élargir ses règles concernant les « médias manipulés » afin d'englober davantage que le seul contenu généré par l'IA.
Le porte-parole de Meta, Kevin McAlister, reconnaît la nécessité d'une approche plus globale, déclarant : « Si les entreprises commencent à inclure des signaux dans leurs générateurs d'images, elles n'ont pas encore commencé à les inclure dans les outils d'IA qui génèrent de l'audio et de la vidéo à la même échelle. »
C’est pourquoi Meta travaille à l’ajout d’une fonctionnalité permettant aux utilisateurs de signaler le partage de vidéos ou d’audio générés par l’IA afin que des étiquettes appropriées puissent être appliquées.

