Ted Cruz fait pression pour une interdictiontracdes contenus pornographiques à caractère vengeur générés par l'IA au Texas

- Ted Cruz défend un projet de loi bipartisan visant à interdire la pornographie de vengeance générée par l'IA, obligeant les plateformes à supprimer le contenu deepfake dans les 48 heures suivant la notification.
- Des victimes comme Elliston Berry, âgé de 15 ans, ont raconté comment des images modifiées par l'IA ont détruit leur vie, tandis que les plateformes n'ont pas réagi assez rapidement.
- Google, Meta et TikTok soutiennent le projet de loi, car les contenus pornographiques truqués représentent désormais 98 % de tout le contenu généré par l'IA en ligne.
Alors que le Congrès s'apprête à clore sa session dans quelques jours, le sénateur texan Ted Cruz déploie des efforts de dernière minute pour faire adopter une loi criminalisant la pornographie de vengeance générée par l'IA.
La proposition de loi S.4569 vise à lutter contre les deepfakes, cette technologie de plus en plus répandue qui consiste à superposer le visage d'une personne sur des images ou des vidéos pornographiques sans son consentement. Si elle est adoptée, cette loi obligerait les sites web et les plateformes de réseaux sociaux à supprimer le contenu dans les 48 heures suivant la notification par la victime.
Le projet de loi est également bipartisan, coparrainé par la sénatrice démocrate Amy Klobuchar, et il a été adopté à l'unanimité par le Sénat le 3 décembre. Désormais, tous les regards sont tournés vers la Chambre des représentants, où les législateurs n'ont plus que quelques jours pour approuver le projet de loi correspondant, HR 8989.
Lors d'une conférence de presse le 11 décembre, Cruz a déclaré : « Chaque victime devrait avoir le droit de dire : "C'est moi. C'est mon image, et vous n'avez pas ma permission de diffuser ces ordures." »
Des victimes témoignent tandis que les entreprises technologiques soutiennent le projet de loi
Elliston Berry, une jeune fille de 15 ans dont l'image modifiée par l'IA s'est répandue comme une traînée de poudre sur Snapchat, a partagé son cauchemar lors de la conférence.
« Ce matin-là, à mon réveil, j'ai ressenti une des pires choses de ma vie », a-t-elle déclaré, décrivant comment la fausse image a circulé pendant neuf mois avant que le bureau de Cruz n'intervienne pour la faire retirer. Les innombrables efforts de sa famille pour inciter les plateformes à agir sont restés vains.
L'histoire de Berry n'est pas un cas isolé, et c'est là le problème. La pornographie truquée (deepfake) a explosé, laissant les victimes se démener pour récupérer leur vie privée tandis que les entreprises technologiques tentent de rattraper leur retard.
Pour la mère de Berry, le fait de pouvoir joindre le bureau de Cruz a été un tournant. Il a fallu l'intervention directe d'un sénateur américain pour qu'une grande plateforme de médias sociaux retire le contenu. Pour la plupart des victimes, ce type d'accès est impossible.
Les géants de la tech Google, Meta, Microsoft et TikTok soutiennent la proposition de loi de Cruz. Cela peut paraître surprenant, mais la réalité est qu'ils subissent une pression croissante pour agir. Les critiques dénoncent depuis longtemps la lenteur des plateformes à supprimer les contenus truqués. Le projet de loi de Cruz les contraint à réagir : 48 heures, sans excuses.
La sénatrice Klobuchar a insisté sur la nécessité d'agir sans tarder. « Ce travail vise à bâtir un avenir, à relever les défis du nouvel environnement dans lequel nous vivons et non à faire comme si de rien n'était. »
Un problème que personne ne peut ignorer
L'intelligence artificielle a rendu la création de deepfakes d'une simplicité inquiétante. Des outils qui exigeaient autrefois des compétences et des ressources avancées sont désormais accessibles à quiconque possède un ordinateur portable et une connexion internet. Ce n'est pas un hasard si 98 % des contenus deepfake en ligne sont pornographiques.
Les chiffres sont choquants. Cette année, le Centre national pour les enfants disparus et exploités (NCMEC) a signalé 4 700 cas de matériel pédopornographique généré par l’IA.
Cette technologie alimente également les recoins les plus sombres d'Internet. Récemment, dans le Wisconsin, un homme de 42 ans a été arrêté pour avoir créé et diffusé des milliers d'images à caractère sexuel de mineurs générées par intelligence artificielle. Dans un autre cas, un pédopsychiatre a été condamné à 40 ans de prison pour avoir utilisé l'IA afin de créer des images modifiées d'enfants réels.
La pornographie truquée (deepfake) ne se limite pas aux mineurs. Célébrités, influenceurs et anonymes sont ciblés à un rythme alarmant. Toute personne ayant une image publique – ou même un compte sur les réseaux sociaux – peut en être victime. En l'absence de législation fédérale, les victimes disposent de peu de recours.
L'intelligence artificielle ne cesse de progresser. Si les législateurs n'agissent pas immédiatement, les dégâts ne feront que s'aggraver. Ils en sont parfaitement conscients, tout comme les victimes. Il appartient désormais au Congrès de décider s'il faut riposter ou laisser la crise des deepfakes se propager sans contrôle.
Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















