L'Internet Watch Foundation (IWF) teme che la diffusione di materiale pedopornografico (CSAM) generato dall'intelligenza artificiale su Internet possa continuare ad aumentare, stimolata dai progressi negli strumenti di intelligenza artificiale.
L'organismo di controllo della sicurezza ha indicato che, con il progressivo perfezionamento degli strumenti di intelligenza artificiale generativa, è diventato difficile distinguere tra immagini o video reali e contenuti falsi generati dall'intelligenza artificiale. Secondo l'organizzazione, le immagini generate dall'intelligenza artificiale a partire dal 2024 sono diventate più "realistiche" di quelle viste per la prima volta nel 2023.
La Internet Watch Foundation registra un aumento del materiale pedopornografico
L'IWF teme che un numero maggiore di materiale pedopornografico generato dall'intelligenza artificiale possa diffondersi su Internet, poiché i pervertiti sfruttano i progressi della tecnologia dell'intelligenza artificiale, che rende gli strumenti più facili da usare e più diffusi. L'organismo di controllo sulla sicurezza ha già rilevato un aumento del materiale pedopornografico generato dall'intelligenza artificiale su Internet.
L'organizzazione ha già segnalato casi di manipolazione di materiale pedopornografico, mentre altri casi riguardavano pornografia per adulti, ma con il volto di un bambino utilizzato nel filmato. Secondo l'IWF, alcuni dei contenuti riguardavano video della durata di circa 20 secondi.
Dan Sexton, direttore tecnico dell'IWF, ha rivelato che è probabile che emergano più CSAM basati sull'intelligenza artificiale se gli strumenti video basati sull'intelligenza artificiale seguiranno la stessa tendenza degli strumenti di generazione di immagini basati sull'intelligenza artificiale, poiché la tecnologia sta crescendo a un ritmo rapido.
"Direi provvisoriamente che se seguirà le stesse tendenze, allora vedremo più video", ha affermato.
Sexton ha aggiunto che è molto probabile che i futuri video basati sull'intelligenza artificiale saranno di "qualità e realismo superiori"
Secondo gli analisti dell'IWF, la maggior parte dei video esaminati dall'organizzazione su un dark forum da pedofili erano parzialmente deepfake. In questo caso, modelli di intelligenza artificiale disponibili gratuitamente online sono stati utilizzati per manipolare le immagini, comprese quelle di vittime note di CSAM, presenti su video CSAM e materiale pornografico per adulti già esistenti.
L'organizzazione ha trovato nove di questi video, mentre un piccolo numero di video realizzati interamente con l'intelligenza artificiale erano di qualità base.
(1/4) #AI panorama dei materiali di abuso sessuale sui minori – L’anno scorso, siamo stati tra i primi a lanciare l’allarme sulla proliferazione di immagini realistiche di abusi sessuali su minori generate dall’#IA pic.twitter.com/s4igkjHH78
— Internet Watch Foundation (IWF) (@IWFhotline) 22 luglio 2024
L'organismo di controllo vuole criminalizzare la produzione di materiale pedopornografico
L'IWF sta ora promuovendo leggi che criminalizzino la produzione di tale materiale, inclusa la creazione di guide per la creazione di tali contenuti. Dovrebbe anche criminalizzare lo sviluppo di strumenti e piattaforme che consentono la creazione di materiale pedopornografico.
Ciò avviene mentre uno studio condotto quest'anno su un singolo forum del dark web ha rivelato 12.000 nuove immagini generate dall'intelligenza artificiale pubblicate nell'arco di un mese.
Secondo l'IWF, nove di queste immagini su dieci erano realistiche e potevano essere perseguite secondo le stesse leggi britanniche che regolano il vero materiale pedopornografico.
Leggi anche: Uomo del Texas condannato per aver acquistato materiale pedopornografico con criptovaluta
L'anno scorso, il National Center for Missing and Exploited Children (NCMEC) ha dichiarato di aver ricevuto numerose segnalazioni di pervertiti che utilizzavano l'intelligenza artificiale in vari modi, ad esempio inserendo prompt di testo per creare immagini di abusi sui minori. In alcuni casi, i predatori alteravano immagini caricate in precedenza per renderle sessualmente esplicite e offensive.
Susie Hargreaves, CEO dell'IWF, ha sottolineato la necessità di governare gli strumenti di intelligenza artificiale generativa per limitare la proliferazione di materiale pedopornografico.
"Senza controlli adeguati, gli strumenti di intelligenza artificiale generativa forniscono ai predatori online un terreno di gioco in cui realizzare le loro fantasie più perverse e disgustose", ha affermato Hargreaves.
Hargreaves ha aggiunto che l'IWF stava iniziando a vedere un numero sempre maggiore di materiale pedopornografico condiviso e venduto su siti commerciali dedicati agli abusi sessuali su minori.
Secondo il Guardian, un'altra organizzazione che gestisce una hotline per segnalare abusi ha rivelato di aver trovato materiale pedopornografico creato tramite intelligenza artificiale in vendita su piattaforme online da parte dei trasgressori.

