L’Internet Watch Foundation (IWF) s’inquiète du fait que la prévalence des contenus pédopornographiques (CSAM) générés par l’IA sur Internet pourrait continuer à augmenter, stimulée par les progrès des outils d’IA.
A lire aussi : Les deepfakes de l'IA rendent difficile aux autorités américaines de protéger les enfants – rapport
L'organisme de surveillance de la sécurité a indiqué qu'à mesure que les outils d'IA générative deviennent sophistiqués, il est également devenu difficile de faire la distinction entre les images ou vidéos réelles et les faux contenus générés par l'IA. Selon l’organisation, les images générées par l’IA à partir de 2024 sont devenues plus « réalistes » que celles vues pour la première fois en 2023.
Internet Watch Foundation constate une augmentation du CSAM
L’IWF craint que davantage de CSAM générés par l’IA ne se retrouvent sur Internet, car les pervers profitent des progrès de la technologie de l’IA, qui rend les outils plus faciles à utiliser et plus répandus. L’organisme de surveillance de la sécurité a déjà noté une augmentation des CSAM générés par l’IA sur Internet.
L'organisation a déjà relevé des cas de manipulation de CSAM, tandis que d'autres cas concernaient de la pornographie adulte mais avec le visage d'un enfant utilisé sur les images. Selon l'IWF, certains contenus impliquaient des vidéos d'une durée d'environ 20 secondes.
Dan Sexton, directeur de la technologie à l'IWF, a révélé qu'il y avait des chances que davantage d'IA CSAM émergent si les outils vidéo d'IA suivaient la même tendance que les outils de génération d'images d'IA, car la technologie se développe à un rythme rapide.
"Je dirais provisoirement que si cela suit les mêmes tendances, alors nous verrons plus de vidéos", a-t-il déclaré.
Sexton a ajouté qu’il y a également de fortes chances que les futures vidéos d’IA soient de « meilleure qualité et plus réalistes ».
Selon les analystes de l'IWF, la plupart des vidéos examinées par l'organisation sur un forum sombre par des pédophiles étaient des deepfakes partiels. Dans ce cas, des modèles d’IA disponibles gratuitement en ligne ont été utilisés pour manipuler les images, y compris celles de victimes connues de CSAM, sur des vidéos CSAM existantes et de la pornographie adulte.
L’organisation a trouvé neuf de ces vidéos, tandis qu’un petit nombre de vidéos entièrement réalisées par l’IA étaient de qualité basique.
(1/4) #IA – L'année dernière, nous avons été parmi les premiers à tirer la sonnette d'alarme sur la prolifération d'images réalistes #IA d'abus sexuels sur enfants… pic.twitter.com/s4igkjHH78
– Internet Watch Foundation (IWF) (@IWFhotline) 22 juillet 2024
Le chien de garde veut criminaliser la production de CSAM
L'IWF fait désormais pression pour des lois qui criminalisent la production de ce type de matériel, notamment en élaborant des guides pour créer de tels contenus. Il devrait également criminaliser le développement d’outils et de plateformes permettant la création de contenus pédopornographiques.
Cela survient alors qu'une étude réalisée cette année sur un seul forum du Dark Web a révélé que 12 000 nouvelles images générées par l'IA ont été publiées sur une période d'un mois.
Selon l’IWF, neuf de ces images sur dix étaient réalistes et pourraient être poursuivies en vertu des mêmes lois britanniques couvrant le véritable CSAM.
A lire aussi : Un Texas condamné pour avoir acheté de la pédopornographie avec de la cryptomonnaie
L'année dernière, le Centre national pour les enfants disparus et exploités (NCMEC) a déclaré avoir reçu de nombreux rapports faisant état de pervers utilisant l'IA de diverses manières, par exemple en saisissant des invites de texte pour créer des images de maltraitance d'enfants. Dans certains cas, les prédateurs ont modifié des photos précédemment téléchargées pour les rendre sexuellement explicites et abusives.
Susie Hargreaves, PDG de l'IWF, a souligné la nécessité de régir les outils d'IA générative pour limiter la prolifération du CSAM.
"Sans contrôles appropriés, les outils d'IA générative offrent un terrain de jeu aux prédateurs en ligne pour réaliser leurs fantasmes les plus pervers et les plus écoeurants", a déclaré Hargreaves.
Hargreaves a ajouté que l’IWF commençait à voir davantage de contenus CSAM partagés et vendus sur des sites commerciaux d’abus sexuels sur enfants.
Selon The Guardian, une autre organisation qui gère une ligne d'assistance téléphonique pour signaler les abus a révélé avoir trouvé du CSAM créé par l'IA en vente sur des plateformes en ligne par des délinquants.
Cryptopolitan Academy: Comment écrire un CV 3 qui décroche les interviews - Feuille de triche gratuite