DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Microsoft exhorte le Congrès américain à se pencher sur le problème des deepfakes générés par l'IA

ParBrenda KananaBrenda Kanana
2 minutes de lecture -
Microsoft exhorte le Congrès américain à se pencher sur le problème des deepfakes générés par l'IA
  • Microsoft exhorte le Congrès à adopter une nouvelle législation pour lutter contre les deepfakes générés par l'IA.
  • Le projet de loi fédéral sur la fraude aux deepfakes couvrirait les aspects criminels et civils.
  • Le Sénat américain a adopté un projet de loi visant les deepfakes à caractère sexuellement explicite.

Microsoft a exhorté le Congrès à adopter une nouvelle législation visant à lutter contre les deepfakes générés par l'IA. Brad Smith, vice-président etdent de Microsoft, a souligné l'urgence pour les législateurs de s'attaquer à la menace croissante que représente la technologie des deepfakes. 

Dans un récent article de blog, Smith a souligné l'importance d'adapter la législation pour lutter contre la fraude liée aux deepfakes et prévenir leur exploitation. Selon lui, il faudrait une loi permettant de poursuivre les auteurs d'escroqueries et de fraudes utilisant des deepfakes. 

Microsoft propose une loi fédérale contre la fraude aux deepfakes

D'après le rapport de Microsoft, plusieurs mesures juridiques peuvent être prises pour prévenir l'utilisation abusive de la technologie deepfake. L'une des suggestions consiste à créer une loi fédérale sur la fraude liée aux deepfakes. Cette nouvelle loi traiterait des aspects civils et pénaux de la fraude aux contenus synthétiques et pourrait impliquer les mesures suivantes : poursuites pénales, saisies civiles et injonctions. 

Le rapport soutient également l'exigence d'dentdes contenus synthétiques. Grâce à la réglementation de l'utilisation d'outils de traçabilité avancés, le public pourrait ainsi mieux connaître l'origine des contenus qu'il reçoit en ligne. Ceci est essentiel pour la crédibilité de l'information numérique et pour lutter contre la diffusion de fausses informations. 

« Le Congrès devrait exiger des fournisseurs de systèmes d'IA qu'ils utilisent des outils de traçabilité de pointe pour étiqueter les contenus synthétiques. C'est essentiel pour instaurer la confiance dans l'écosystème de l'information et cela permettra au public de mieux comprendre si un contenu est généré ou manipulé par l'IA. »

Brad Smith

Par ailleurs, Microsoft propose de modifier la législation actuelle sur l'exploitation des enfants et les images explicites non consensuelles afin d'y inclure les images produites par l'IA. Ceci permettrait d'adapter le cadre juridique aux évolutions technologiques et de protéger ainsi les personnes les plus vulnérables. 

Le Sénat américain a récemment pris des mesures en ce sens en adoptant une loi visant à lutter contre les deepfakes à caractère sexuellement explicite. Cette nouvelle loi permet aux victimes de deepfakes à caractère sexuellement explicite non consentis, créés par intelligence artificielle, de poursuivre en justice les créateurs de ces contenus. 

La FCC dit « non » aux appels automatisés vocaux par intelligence artificielle

Microsoft a également réagi aux abus de l'IA et renforcé la sécurité de ses produits. L'entreprise a récemment amélioré son outil de création d'images par IA Designer suite à une faille de sécurité exploitée pour produire des images obscènes de célébrités. Selon Smith, le secteur privé doit prendre des mesures pour garantir que l'IA ne soit pas mal utilisée, et il incombe aux entreprises technologiques de veiller à la protection des utilisateurs. 

La FCC a déjà pris des mesures contre le détournement de l'IA en interdisant l'utilisation de la voix de synthèse dans les appels automatisés. Pourtant, l'IA générative progresse constamment dans la production de faux fichiers audio, d'images et de vidéos. Ce problème a récemment été exacerbé par une vidéo truquée de la vice-dent américaine Kamala Harris, diffusée sur les réseaux sociaux et illustrant le danger croissant que représente cette technologie.

D'autres organisations à but non lucratif, comme le Center for Democracy and Technology (CDT), luttent également contre l'utilisation abusive des deepfakes. Comme le souligne Tim Harper, analyste politique principal du CDT, l'année 2024 marque un tournant décisif pour l'IA dans les élections, et il est essentiel de s'y préparer. La résistance actuelle aux deepfakes n'est qu'un prélude à une lutte potentiellementtraccontre la manipulation technologique. 

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustronrecommandons vivement d’effectuer vosdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES