UNICEF appelle à des lois plus strictes pour criminaliser les contenus pédopornographiques générés par l'IA

- Le Fonds des Nations Unies pour l'enfance (UNI) a constaté une augmentation du volume d'images sexualisées d'enfants générées par l'IA qui circulent sur Internet.
- L'agence a appelé les gouvernements et l'industrie à agir d'urgence pour empêcher la création et la diffusion de contenus sexuels impliquant des enfants, générés par l'IA.
- UNICEF a fait valoir que les enfants sont confrontés à la honte, à la stigmatisation, à un jugement accru de la part de leurs pairs et des adultes, à l’isolement social et à des dommages émotionnels à long terme en raison de tels contenus.
Le Fonds des Nations Unies pour l'enfance (UNI) a signalé mercredi une forte augmentation du nombre d'images à caractère sexuel générées par l'intelligence artificielle circulant sur Internet. Ces images montrent principalement des enfants dont les photographies ont été manipulées et sexualisées.
L'agence a fait valoir que la multiplication des outils de génération d'images ou de vidéos utilisant l'IA pour produire des contenus pédopornographiques accroît les risques pour les enfants via les technologies numériques. UNICEF a également appelé les gouvernements et l'industrie à agir d'urgence pour empêcher la création et la diffusion de contenus sexuels impliquant des enfants générés par l'IA.
Les contenus sexualisés générés par l'IA causent des dommages émotionnels à long terme aux enfants
L'utilisation abusive des deepfakes est un abus.
Les images, vidéos ou enregistrements audio à caractère sexuel d'enfants, générés ou manipulés à l'aide d'outils d'intelligence artificielle, constituent du matériel pédopornographique. Même en l'absence de victimedent, cela banalise l'exploitation sexuelle des enfants.
UNICEF appelle à une action urgente pour prévenir…
— UNIUNIUNIUNIUNIUNIUNIUNIUNI) 4 février 2026
L'organisation onusienne a constaté qu'il y a moins de cinq ans, les modèles génératifs de haute qualité exigeaient une puissance de calcul et une expertise considérables. Or, les modèles open source actuels facilitent la création de contenus à caractère sexuel par les auteurs d'abus.
L'agence estime que, même si aucun enfant réel n'est directement impliqué, ce type de contenu banalise la sexualisation des enfants et complique l'identification des victimesdentUNIUNI UNIUNIUNIUNI UNIUNIégalement fait valoir que les auteurs de tels actes peuvent créer des images sexuelles réalistes d'un enfant sans son consentement ni même qu'il en soit conscient.
UNICEF a déclaré que de tels contenus peuvent porter atteinte au droit à la protection de l'enfant sans même que celui-ci s'en aperçoive. L'agence a également indiqué que les enfants sont confrontés à la honte, à la stigmatisation, à un jugement accru de la part de leurs pairs et des adultes, à l'isolement social et à des séquelles émotionnelles durables.
UNICEF a également révélé que l'accessibilité accrue des outils de génération d'images ou de vidéos par intelligence artificielle a entraîné une forte augmentation de la production et de la diffusion de contenus pédopornographiques. L'Internet Watch Foundation (IWF) du Royaume-Uni a recensé environ 14 000 suspectées d'être générées par IA sur un seul forum du dark web dédié à la pédopornographie, et ce en un seul mois. Le rapport indique qu'un tiers de ces contenus étaient de nature criminelle et qu'il s'agissait des premières vidéos réalistes d'abus sexuels sur enfants réalisées par IA.
L'IWF a également découvert 3 440 vidéos d'abus sexuels sur enfants réalisées par intelligence artificielle, soit une augmentation de 26 362 % par rapport aux 13 vidéos recensées l'année précédente. Parmi ces vidéos, 2 230 (65 %) ont été classées en catégorie A en raison de leur extrême violence, tandis que 1 020 autres (30 %) ont été classées en catégorie B.
L'IWF a égalementdentla présence de contenus pédopornographiques utilisant l'IA sur les plateformes grand public, notamment des images truquées de nus créées dans un contexte de partage entre pairs et ciblant des jeunes filles. L'organisation a également cité un exemple en Corée, où les forces de l'ordre ont constaté une multiplication par dix des infractions sexuelles impliquant l'IA et les technologies de deepfake entre 2022 et 2024.
L'intelligence artificielle et les deepfakes visaient principalement des adolescents, qui constituaient la majorité des personnes mises en cause. L'enquête de Thorny a révélé qu'un adolescent américain sur dix avait connaissance de cas où des amis avaient créé, à l'aide d'outils d'intelligence artificielle, des images intimes synthétiques et non consenties d'enfants à des fins numériques.
UNICEF, ECPAT International et INTERPOL ont également constaté qu'en 2025, dans 11 pays, environ 1,2 million d'enfants ont vu leurs images manipulées en deepfakes à caractère sexuellement explicite grâce à des outils d'IA. Ces agences ont également signalé que jusqu'aux deux tiers des enfants dans ces 11 pays craignent que l'IA puisse être utilisée pour créer de fausses images à caractère sexuel.
UNICEF a souligné la nécessité d'informer les parents et les personnes en charge d'enfants sur l'exploitation et les abus sexuels facilités par l'IA. L'agence a également appelé les établissements scolaires à sensibiliser lesdentaux risques liés à l'IA et aux préjudices qu'ils causent aux personnes concernées.
Des pays prennent leurs distances avec Grok en raison de ses deepfakes à caractère sexuel basés sur l'IA
UNIl'outil d'IA d'Elon Musk, Grok, a intégré des fonctionnalités empêchant la modification de photos de personnes réelles pour les montrer en tenues suggestives dans les pays où cela est interdit. Cette initiative fait suite à l'inquiétude générale suscitée par les deepfakes à caractère sexuel créés par l'IA.
Le gouvernement britannique a demandé à X de contrôler Grok, tandis que l'Ofcom, l'autorité de régulation des communications, a déclaré travailler sans relâche pour résoudre le problème. X a indiqué dans un communiqué avoir bloqué géographiquement la possibilité pour tous les utilisateurs de générer des images de personnes réelles en bikini, sous-vêtements et vêtements similaires via leur compte Grok et dans l'application Grok de X, dans les pays où cela est interdit.
La Malaisie et l'Indonésie avaient également bloqué l'accès à Grok au début du mois dernier en raison de sa capacité à générer des deepfakes à caractère sexuel explicite. Cryptopolitan a rapporté en début de mois que l'Indonésie avait autorisé Grok à reprendre ses activités après que X se soit engagé à améliorer sa conformité avec la législation du pays.
Il existe un juste milieu entre laisser son argent à la banque et miser sur les cryptomonnaies. Commencez par regarder cette vidéo gratuite sur la finance décentralisée.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














