Deux législateurs ont proposé un projet de loi bipartisan intitulé « Loi sur la dissuasion de la fraude à l'IA », visant à lutter contre l'utilisation abusive croissante de l'intelligence artificielle dans les escroqueries, notamment celles impliquant des deepfakes ciblant des fonctionnaires fédéraux.
Cette législation vise à moderniser les lois américaines existantes sur la fraude afin qu'elles prennent en compte le rôle joué par la technologie de l'intelligence artificielle dans desdentrécents très médiatisés où des contenus audio ou vidéo générés par l'IA ont trompé des responsables ou le public.
Plus d'informations sur le projet de loi bipartisan
Le projet de loi, proposé par les représentants Ted Lieu (démocrate de Californie) et Neal Dunn (républicain de Floride), deux législateurs exaspérés par la facilité et l'audace avec lesquelles les criminels utilisent désormais l'IA dans leurs pratiques trompeuses, vise à étendre les sanctions pour les escroqueries à l'IA et à criminaliser l'usurpation d'identité de fonctionnaires fédéraux au moyen de l'IA.
« Face à l’évolution rapide de l’intelligence artificielle, notre législation doit évoluer au même rythme », a déclaré M. Dunn dans un communiqué annonçant le projet de loi. « La loi sur la prévention de la fraude liée à l’IA renforce les sanctions pour les crimes de fraude commis à l’aide de l’IA. Je suis fier de codiriger ce projet de loi visant à protéger l’dentdes citoyens et à prévenir tout abus de cette technologie innovante. »
Lieu partage cet avis et a déclaré la semaine dernière à NBC News que la majorité des Américains souhaitent des « garde-fous raisonnables en matière d'IA », car ils ne pensent pas qu'un « Far West complet soit utile ».
Selon le projet de loi , la peine maximale pour fraude serait doublée, passant de 1 million à 2 millions de dollars, dans les cas où l'intelligence artificielle est utilisée délibérément pour faciliter le délit. Le texte inclurait également la tromperie par le biais de l'IA dans les defi de la fraude postale et de la fraude par voie électronique, ce qui permettrait de poursuivre les personnes utilisant l'IA pour commettre l'un ou l'autre de ces types de fraude.
Dans les deux cas, les criminels pourraient se voir infliger des amendes de plusieurs millions de dollars et jusqu'à vingt ans de prison pour fraude postale et trois ans pour fraude par voie électronique.
Le projet de loi condamne également l'usurpation d'identité de responsables fédéraux au moyen de deepfakes créés par l'IA , en soulignant des cas où des IA ont été utilisées pour tenter d'imiter la chef de cabinet de la Maison Blanche, Susie Wiles, et le secrétaire d'État Marco Rubio plus tôt cette année.
La fraude existe depuis aussi longtemps que l'humanité, mais les experts affirment que grâce à l'IA, la qualité des résultats frauduleux s'est améliorée.
En décembre, le FBI a averti que « l’IA générative réduit le temps et les efforts que les criminels doivent consacrer pour tromper leurs cibles », ajoutant que l’IA « peut corriger les erreurs humaines qui pourraient autrement servir de signes avant-coureurs de fraude ».
Maura R. Grossman, professeure de recherche en informatique à l'Université de Waterloo en Ontario et avocate, estime elle aussi que l'IA ouvre une nouvelle ère de tromperie : « L'IA confère à la fraude une ampleur, une portée et une rapidité très différentes des fraudes du passé. »
Les modèles d'IA sont devenus plus avancés.
Cependant, le fait qu'elle facilite la criminalité n'est pas le problème majeur. Les observateurs s'inquiètent désormais de la difficulté qu'ont les institutions actuelles, comme les tribunaux, à suivre le rythme des progrès fulgurants du secteur de l'IA.
« Les années d'IA sont comme des années de chien », a déclaré Hany Farid, professeur d'informatique à l'Université de Californie à Berkeley et cofondateur de GetReal Security, une entreprise leader dans l'authentification des médias numériques, à propos de la vitesse des progrès de l'IA.
Auparavant, il n'était pas trop difficile de distinguer le contenu généré par l'IA du contenu réel, notamment en ce qui concernait les images ; cependant, aujourd'hui, ces technologies sont devenues plus sophistiquées, et même les utilisateurs les plus expérimentés ont du mal à déterminer si un contenu multimédia est réel ou généré.
Dans un avertissement publié en décembre, le FBI conseillait aux individus de rester vigilants face aux anomalies dans les images et les vidéos afin d'dentles médias générés par l'IA : « Recherchez des imperfections subtiles dans les images et les vidéos, telles que des mains ou des pieds déformés. »
Cependant, Farid estime que ce vieux conseil est erroné, voire dangereux. « L'astuce des mains multiples, ça ne marche plus », a déclaré Farid. « On ne peut plus se fier aux mains ou aux pieds. Rien de tout ça ne fonctionne. »
Le projet de loi de Lieu et Dunn souligne l'importance de l'étiquetage des contenus générés par l'IA. Il précise également que les médias générés par l'IA ont leur place et leur utilité. Par exemple, si un contenu est étiqueté comme satirique, cette étiquette indique clairement qu'il n'est pas authentique et qu'il est donc exempté de sanctions.

