COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

Internet Watch Foundation prévient que les progrès de l’IA pourraient aggraver le CSAM

Dans cet article :

  • L’IWF a mis en garde contre une augmentation potentielle du CSAM généré par l’IA à mesure que les outils d’IA générative deviennent plus disponibles et plus sophistiqués.
  • L’IWF a déjà noté que le CSAM créé en 2024 semble « plus réaliste » que celui de 2023.
  • L’organisme de surveillance fait désormais pression pour des lois qui criminalisent la production et la diffusion de CSAM.

L’Internet Watch Foundation (IWF) s’inquiète du fait que la prévalence des contenus pédopornographiques (CSAM) générés par l’IA sur Internet pourrait continuer à augmenter, stimulée par les progrès des outils d’IA.

A lire aussi : Les deepfakes de l'IA rendent difficile aux autorités américaines de protéger les enfants – rapport

L'organisme de surveillance de la sécurité a indiqué qu'à mesure que les outils d'IA générative deviennent sophistiqués, il est également devenu difficile de faire la distinction entre les images ou vidéos réelles et les faux contenus générés par l'IA. Selon l’organisation, les images générées par l’IA à partir de 2024 sont devenues plus « réalistes » que celles vues pour la première fois en 2023.

Internet Watch Foundation constate une augmentation du CSAM

L’IWF craint que davantage de CSAM générés par l’IA ne se retrouvent sur Internet, car les pervers profitent des progrès de la technologie de l’IA, qui rend les outils plus faciles à utiliser et plus répandus. L’organisme de surveillance de la sécurité a déjà noté une augmentation des CSAM générés par l’IA sur Internet.

L'organisation a déjà relevé des cas de manipulation de CSAM, tandis que d'autres cas concernaient de la pornographie adulte mais avec le visage d'un enfant utilisé sur les images. Selon l'IWF, certains contenus impliquaient des vidéos d'une durée d'environ 20 secondes.

Dan Sexton, directeur de la technologie à l'IWF, a révélé qu'il y avait des chances que davantage d'IA CSAM émergent si les outils vidéo d'IA suivaient la même tendance que les outils de génération d'images d'IA, car la technologie se développe à un rythme rapide.

"Je dirais provisoirement que si cela suit les mêmes tendances, alors nous verrons plus de vidéos", a-t-il déclaré.

Sexton a ajouté qu’il y a également de fortes chances que les futures vidéos d’IA soient de « meilleure qualité et plus réalistes ».

Voir aussi  les accrochages de mise à niveau Siri alimentés par AI, peuvent être retardés

Selon les analystes de l'IWF, la plupart des vidéos examinées par l'organisation sur un forum sombre par des pédophiles étaient des deepfakes partiels. Dans ce cas, des modèles d’IA disponibles gratuitement en ligne ont été utilisés pour manipuler les images, y compris celles de victimes connues de CSAM, sur des vidéos CSAM existantes et de la pornographie adulte.

L’organisation a trouvé neuf de ces vidéos, tandis qu’un petit nombre de vidéos entièrement réalisées par l’IA étaient de qualité basique.

Le chien de garde veut criminaliser la production de CSAM

L'IWF fait désormais pression pour des lois qui criminalisent la production de ce type de matériel, notamment en élaborant des guides pour créer de tels contenus. Il devrait également criminaliser le développement d’outils et de plateformes permettant la création de contenus pédopornographiques.

Cela survient alors qu'une étude réalisée cette année sur un seul forum du Dark Web a révélé que 12 000 nouvelles images générées par l'IA ont été publiées sur une période d'un mois.

Selon l’IWF, neuf de ces images sur dix étaient réalistes et pourraient être poursuivies en vertu des mêmes lois britanniques couvrant le véritable CSAM.

Voir aussi  la start-up française de l'IA Mistral présente un modèle pour les pays arabophones

A lire aussi : Un Texas condamné pour avoir acheté de la pédopornographie avec de la cryptomonnaie

L'année dernière, le Centre national pour les enfants disparus et exploités (NCMEC) a déclaré avoir reçu de nombreux rapports faisant état de pervers utilisant l'IA de diverses manières, par exemple en saisissant des invites de texte pour créer des images de maltraitance d'enfants. Dans certains cas, les prédateurs ont modifié des photos précédemment téléchargées pour les rendre sexuellement explicites et abusives.

Susie Hargreaves, PDG de l'IWF, a souligné la nécessité de régir les outils d'IA générative pour limiter la prolifération du CSAM.

"Sans contrôles appropriés, les outils d'IA générative offrent un terrain de jeu aux prédateurs en ligne pour réaliser leurs fantasmes les plus pervers et les plus écoeurants", a déclaré Hargreaves.

Hargreaves a ajouté que l’IWF commençait à voir davantage de contenus CSAM partagés et vendus sur des sites commerciaux d’abus sexuels sur enfants.

Selon The Guardian, une autre organisation qui gère une ligne d'assistance téléphonique pour signaler les abus a révélé avoir trouvé du CSAM créé par l'IA en vente sur des plateformes en ligne par des délinquants.

Cryptopolitan Academy: Comment écrire un CV 3 qui décroche les interviews - Feuille de triche gratuite

Lien de partage:

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Choix de l'éditeur

Chargement des articles Choix de l'éditeur...
Abonnez-vous à CryptoPolitan