L’Internet Watch Foundation (IWF) craint que la prévalence de matériel pédopornographique généré par l’IA (CSAM) sur Internet ne continue d’augmenter, stimulée par les progrès des outils d’IA.
À lire également : Les deepfakes créés par l’IA compliquent la tâche des autorités américaines pour protéger les enfants – rapport
L'organisme de surveillance de la sécurité a indiqué qu'à mesure que les outils d'IA générative se perfectionnent, il devient également difficile de distinguer les images ou vidéos authentiques des contenus générés par l'IA. Selon cet organisme, les images générées par l'IA en 2024 sont devenues plus « réalistes » que celles apparues pour la première fois en 2023.
L'Internet Watch Foundation constate une augmentation du contenu pédopornographique
L'IWF craint que davantage de contenus pédopornographiques générés par l'IA ne se retrouvent sur Internet, les pervers profitant des progrès de cette technologie qui rendent les outils plus faciles à utiliser et plus répandus. L'organisme de surveillance a déjà constaté une augmentation de ces contenus sur Internet.
L'organisation a déjà recensé des cas de manipulation de contenus pédopornographiques, tandis que d'autres cas concernaient de la pornographie adulte utilisant le visage d'un enfant dans les vidéos. Selon l'IWF, certains contenus incluaient des vidéos d'une vingtaine de secondes.
Dan Sexton, directeur technique de l'IWF, a révélé qu'il est probable que davantage de systèmes CSAM basés sur l'IA émergent si les outils vidéo basés sur l'IA suivent la même tendance que les outils de génération d'images basés sur l'IA, car cette technologie se développe à un rythme rapide.
« Je dirais, avec prudence, que si les mêmes tendances se confirment, nous verrons davantage de vidéos », a-t-il déclaré.
Sexton a ajouté qu'il y a également de fortes chances que les futures vidéos réalisées par l'IA soient de « meilleure qualité et plus réalistes »
D'après les analystes de l'IWF, la plupart des vidéos examinées par l'organisation sur un forum clandestin fréquenté par des pédophiles étaient des deepfakes partiels. Dans ce cas précis, des modèles d'IA disponibles gratuitement en ligne ont été utilisés pour manipuler les images, y compris celles de victimes connues de pédopornographie, dans des vidéos pédopornographiques existantes et des contenus pornographiques pour adultes.
L'organisation a trouvé neuf vidéos de ce type, tandis qu'un petit nombre de vidéos entièrement réalisées par IA étaient de qualité basique.
(1/4) #IA : Paysage des contenus pédopornographiques – L’année dernière, nous avons été parmi les premiers à tirer la sonnette d’alarme concernant la prolifération d’ images réalistes de pédopornographie générées par #IA pic.twitter.com/s4igkjHH78
— Internet Watch Foundation (IWF) (@IWFhotline) 22 juillet 2024
L'organisme de surveillance souhaite criminaliser la production de matériel pédopornographique
L'IWF milite désormais pour des lois criminalisant la production de tels contenus, y compris la création de guides pour leur fabrication. Elle devrait également criminaliser le développement d'outils et de plateformes permettant la création de contenus pédopornographiques.
Cette information survient alors qu'une étude menée cette année sur un forum du dark web a révélé la présence de 12 000 nouvelles images générées par l'IA et publiées sur une période d'un mois.
Selon l'IWF, neuf de ces images sur dix étaient réalistes et pourraient faire l'objet de poursuites en vertu des mêmes lois britanniques régissant la pornographie infantile réelle.
À lire également : Un Texan condamné pour avoir acheté de la pornographie infantile avec des cryptomonnaies
L'an dernier, le Centre national pour les enfants disparus et exploités (NCMEC) a déclaré avoir reçu de nombreux signalements de personnes mal intentionnées utilisant l'intelligence artificielle de diverses manières, notamment en saisissant des messages textuels pour créer des images pédopornographiques. Dans certains cas, les prédateurs ont modifié des photos déjà téléchargées afin de les rendre sexuellement explicites et abusives.
La PDG de l'IWF, Susie Hargreaves, a souligné la nécessité de réglementer les outils d'IA générative afin de limiter la prolifération des CSAM.
« Sans contrôles adéquats, les outils d'IA générative offrent un terrain de jeu aux prédateurs en ligne pour réaliser leurs fantasmes les plus pervers et les plus répugnants », a déclaré Hargreaves.
Hargreaves a ajouté que l'IWF constatait une augmentation du partage et de la vente de contenus pédopornographiques sur des sites commerciaux spécialisés dans l'exploitation sexuelle d'enfants.
Selon The Guardian, une autre organisation gérant une ligne d'assistance téléphonique pour signaler les abus a révélé avoir trouvé des contenus pédopornographiques créés par IA en vente sur des plateformes en ligne par des délinquants.

