UNICEF chiede leggi più severe per criminalizzare i contenuti pedopornografici generati dall'intelligenza artificiale

- Il Fondo delle Nazioni Unite per l'infanzia (UNICEF) ha rilevato un aumento del volume di immagini sessualizzate di bambini generate dall'intelligenza artificiale che circolano su Internet.
- L'agenzia ha chiesto ai governi e all'industria di intervenire con urgenza per impedire la creazione e la diffusione di contenuti sessuali sui minori generati dall'intelligenza artificiale.
- UNICEF ha sostenuto che tali contenuti causano vergogna, stigma, un maggiore giudizio da parte dei coetanei e degli adulti, isolamento sociale e danni emotivi a lungo termine.
Mercoledì, il Fondo delle Nazioni Unite per l'Infanzia (UNICEF) ha segnalato un rapido aumento del volume di immagini sessualizzate generate dall'intelligenza artificiale in circolazione su Internet. Queste immagini generate dall'intelligenza artificiale includevano principalmente casi in cui fotografie di bambini erano state manipolate e sessualizzate.
L'agenzia ha sostenuto che l'aumento degli strumenti di generazione di immagini o video basati sull'intelligenza artificiale, che producono materiale pedopornografico, aumenta i rischi per i minori attraverso le tecnologie digitali. UNICEF ha inoltre chiesto ai governi e al settore un'azione urgente per prevenire la creazione e la diffusione di contenuti di natura sessuale minorile generati dall'intelligenza artificiale.
I contenuti generati dall'intelligenza artificiale a sfondo sessuale causano danni emotivi a lungo termine ai bambini
L'abuso dei deepfake è un abuso.
Immagini, video o audio sessualizzati di bambini, generati o manipolati tramite strumenti di intelligenza artificiale, costituiscono materiale di abuso sessuale sui minori. Anche in assenza di una vittimadent, ciò normalizza lo sfruttamento sessuale dei minori.
UNICEF chiede un'azione urgente per prevenire..
— UNIUNIUNIUNIUNIUNIUNIUNIUNICEF) 4 febbraio 2026
L'organizzazione delle Nazioni Unite ha osservato che meno di 5 anni fa, modelli generativi di alta qualità richiedevano una notevole potenza di calcolo e competenze specifiche. Tuttavia, gli attuali modelli open source facilitano la creazione di contenuti di abusi sessuali da parte degli autori.
L'agenzia ritiene che, sebbene nessun bambino reale sia direttamente coinvolto, tali contenuti normalizzino la sessualizzazione dei minori e complichino l'dentUNIUNI UNIUNIUNIUNI UNIUNICEF ha inoltre sostenuto che i responsabili possono creare immagini sessuali realistiche di un bambino senza il suo coinvolgimento o la sua consapevolezza.
UNICEF ha affermato che tali contenuti possono violare il diritto di un bambino alla protezione senza nemmeno rendersene conto. L'agenzia ha inoltre affermato che i bambini si trovano ad affrontare vergogna, stigma, un giudizio più severo da parte di coetanei e adulti, isolamento sociale e danni emotivi a lungo termine.
UNICEF ha inoltre rivelato che la crescente accessibilità degli strumenti di generazione di immagini e video basati sull'intelligenza artificiale ha portato a un'impennata nella produzione e diffusione di materiale pedopornografico. L'Internet Watch Foundation (IWF) del Regno Unito ha individuato circa 14.000 sospettate di essere generate dall'IA su un singolo forum del dark web dedicato al materiale pedopornografico in un solo mese. Il rapporto ha rivelato che un terzo del materiale era di natura criminale e che si trattava dei primi video realistici di abusi sessuali su minori realizzati con l'IA.
L'IWF ha inoltre scoperto 3.440 video di abusi sessuali su minori, con un aumento del 26.362% rispetto ai 13 video trovati l'anno precedente. 2.230 (65%) dei video sono stati classificati come Categoria A per la loro estrema pericolosità, mentre altri 1.020 (30%) sono stati classificati come Categoria B.
L'IWF ha anchedentmateriale pedopornografico (CSAM) basato sull'intelligenza artificiale sulle piattaforme tradizionali, che includeva nudi deepfake creati in contesti peer-to-peer e mirati alle ragazze. L'organizzazione ha anche segnalato un caso in Corea, dove le forze dell'ordine hanno segnalato un aumento di 10 volte dei reati sessuali che coinvolgono l'intelligenza artificiale e le tecnologie deepfake tra il 2022 e il 2024.
L'intelligenza artificiale e i deepfake hanno coinvolto principalmente adolescenti, che costituiscono la maggioranza degli accusati. L'indagine di Thorny ha rivelato che 1 adolescente su 10 negli Stati Uniti era a conoscenza di casi in cui amici avevano creato immagini intime sintetiche non consensuali di minori utilizzando strumenti di intelligenza artificiale.
UNICEF, ECPAT International e INTERPOL hanno inoltre scoperto che, nel 2025, in 11 paesi, circa 1,2 milioni di bambini hanno visto le proprie immagini manipolate in deepfake sessualmente espliciti tramite strumenti di intelligenza artificiale. Le agenzie hanno inoltre segnalato che fino a due terzi dei bambini in circa 11 paesi temono che l'intelligenza artificiale possa essere utilizzata per creare false immagini sessuali.
UNICEF ha sostenuto che genitori e tutori devono essere informati sullo sfruttamento e gli abusi sessuali resi possibili dall'intelligenza artificiale. L'agenzia ha inoltre invitato le scuole a informare glidentsui rischi legati all'intelligenza artificiale e sui danni che causano alle persone colpite.
I paesi si dissociano da Grok a causa dei suoi deepfake di intelligenza artificiale sessualizzati
UNIlo strumento di intelligenza artificiale di Elon Musk, Grok, ha implementato funzionalità che impediscono al programma di modificare foto reali di persone reali per mostrarle con abiti succinti nei paesi in cui ciò è vietato. L'iniziativa è nata in seguito alle diffuse preoccupazioni sui deepfake sessualizzati creati dall'IA.
Il governo britannico ha chiesto a X di intervenire su Grok, mentre l'autorità di regolamentazione Ofcom ha dichiarato di lavorare senza sosta per risolvere il problema. X ha affermato in una dichiarazione di aver bloccato geograficamente la possibilità per tutti gli utenti di generare immagini di persone reali in bikini, intimo e abbigliamento simile tramite l'account Grok e all'interno di Grok su X nei paesi in cui ciò è vietato.
Anche la Malesia e l'Indonesia hanno bloccato l'accesso a Grok all'inizio del mese scorso a causa della sua capacità di generare deepfake a contenuto sessualmente esplicito. Cryptopolitan ha riportato all'inizio di questo mese che l'Indonesia aveva permesso a Grok di riprendere le operazioni dopo che X si era impegnata a migliorare la conformità con le leggi del paese.
Esiste una via di mezzo tra lasciare i soldi in banca e tentare la fortuna con le criptovalute. Inizia con questo video gratuito sulla finanza decentralizzata.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














