Chargement...

Meta annonce une politique élargie pour l'étiquetage des images générées par l'IA

Dans cet article :

  • Meta pour étiqueter les images IA pour lutter contre les fausses informations.
  • Défi : Certains outils d'IA ne font pas de filigrane, ce qui présente des risques.
  • Meta étend les règles pour tous les médias manipulés.

Meta, anciennement connu sous le nom de Facebook, a dévoilé une politique élargie pour relever les défis associés à la prolifération du généré par l'IA sur ses plateformes, notamment Facebook, Instagram et Threads.

En réponse à l’utilisation croissante de l’intelligence artificielle générative, l’entreprise va désormais mettre en place des étiquettes d’avertissement sur les images générées par l’IA pour informer les utilisateurs de leurs origines artificielles. Bien que cette décision soit considérée comme une étape positive, des inquiétudes subsistent quant à son efficacité dans la lutte contre les acteurs malveillants et aux limites de la technologie.

Étiquettes d'avertissement sur les images générées par l'IA

Le dernier changement de politique de Meta consiste à étiqueter les images générées par l'IA, qu'elles soient créées à l'aide de ses propres outils d'IA générative ou de ceux fournis par d'autres sociétés, avec des étiquettes indiquant leur nature artificielle. Cette décision vise à réduire le risque de propagation de fausses informations et de désinformation par des images générées par l’IA et présentées comme de vraies photos.

 Meta a qualifié les images produites par son IA de « imaginées avec l’IA », principalement en dent le filigrane numérique intégré par ses algorithmes dans la sortie.

Défis et limites

Malgré l'engagement de Meta à mettre en œuvre ces étiquettes d'avertissement, des défis importants demeurent. Un défi notable est que de nombreux outils de génération d’images d’IA ne filigranent pas leurs résultats, ce qui permet aux acteurs malveillants de manipuler et de diffuser facilement le contenu généré par l’IA sans divulgation.  

De plus, la technologie permettant de détecter de manière fiable les images générées par l’IA et de les étiqueter est encore en développement, et aucune norme universellement déployée n’existe.

La Coalition for Content Provenance and Authenticity (C2PA), une initiative fondée par Adobe, a tenté d'aligner le travail des entreprises sur la provenance du contenu. Toutefois, la technologie développée jusqu’à présent n’est pas infaillible.  

Les chercheurs ont démontré la facilité avec laquelle les filigranes peuvent être brisés ou ajoutés à des images non générées par l’IA, compromettant ainsi leur efficacité.

Hany Farid, professeur à l'École d'information de l'Université de Berkeley qui conseille l'initiative C2PA, prévient que les mauvais acteurs peuvent utiliser des outils d'IA qui ne filigranent pas leurs résultats pour tromper davantage les utilisateurs. 

Il suggère qu'une combinaison de dent , telles que le filigrane et la technologie , pourrait être nécessaire pour identifier de manière robuste dent contenu généré par l'IA. Le filigrane est moins développé pour les médias générés par l'IA au-delà des images, tels que l'audio et la vidéo.

Élargir les politiques et la surveillance

Bien que les nouvelles politiques de Meta représentent un pas en avant dans la lutte contre les faux contenus, elles ne se limitent pas au matériel généré par l'IA. Le conseil de surveillance de l'entreprise, composé d'experts dent , a récemment confirmé la décision de Meta de laisser apparaître une vidéo du dent Joe Biden qui avait été modifiée pour créer une impression trompeuse.  

Cette décision souligne la nécessité pour Meta de réviser et d’élargir ses règles relatives aux « médias manipulés » pour englober plus que le simple contenu généré par l’IA.

Le porte-parole de Meta, Kevin McAlister, reconnaît la nécessité d'une approche plus large, déclarant : « Même si les entreprises commencent à inclure des signaux dans leurs générateurs d'images, elles n'ont pas encore commencé à les inclure dans les outils d'IA qui génèrent de l'audio et de la vidéo à la même échelle. » 

En tant que tel, Meta travaille sur l'ajout d'une fonctionnalité permettant aux utilisateurs de divulguer lors du partage de vidéo ou d'audio généré par l'IA afin que les étiquettes appropriées puissent être appliquées.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

La voiture de course Indy Autonomous Challenge bat le record de vitesse en montée
cryptopolite
Abonnez-vous à CryptoPolitan