L'enorme quantità di deepfake di bambini sessualmente espliciti creati dall'intelligenza artificiale sta rendendo difficile per le forze dell'ordine negli Stati Uniti distinguere i bambini in difficoltà nella vita reale da quelli falsi, hanno avvertito procuratori e gruppi di sicurezza. Affermano che le immagini sono così realistiche che è diventato difficile sapere se i bambini veri hanno subito abusi, riporta il Guardian.
Leggi anche: L'orsacchiotto Poe, alimentato da ChatGPT, legge le storie della buonanotte ai bambini
Kristina Korobov, avvocato senior presso Zero Abuse Project, un'organizzazione no-profit per la sicurezza dei minori con sede in Minnesota, afferma che il gruppo ha iniziato a notare segnalazioni di immagini di bambini reali realizzate tramite intelligenza artificiale, che non hanno subito abusi sessuali. "Ma ora il loro volto è quello di un bambino che ha subito abusi", afferma.
Il procuratore del Dipartimento di Giustizia afferma che "stiamo annegando" a causa dell'intelligenza artificiale
"A volte riconosciamo la biancheria da letto o lo sfondo di un video o di un'immagine, l'autore o la serie da cui proviene, ma ora c'è il volto di un altro bambino sovrapposto", ha affermato Korobov, secondo il Guardian.
I modelli di intelligenza artificiale sono in grado di produrre ogni giorno migliaia di immagini e video simili a fotografie reali. Secondo il rapporto, questo ha reso più facile per i predatori utilizzare la tecnologia per diffondere contenuti sgradevoli sul dark web e sulla rete internet tradizionale.
Per le autorità, la situazione è diventata un incubo. "Dal punto di vista delle forze dell'ordine, i crimini contro i minori sono uno degli ambiti con le risorse più limitate, e ci sarà un'esplosione di contenuti provenienti dall'intelligenza artificiale", ha affermato un procuratore del Dipartimento di Giustizia degli Stati Uniti (DoJ), aggiungendo:
"Siamo già sommersi da questa roba."
NCMEC statunitense afferma che, nel 2023, le segnalazioni di abusi sui minori online sono aumentate del 12%, raggiungendo quota 36,2 milioni. Sebbene la maggior parte delle segnalazioni riguardasse la circolazione di foto e video reali di minori abusati sessualmente, il centro ha ricevuto anche 4.700 segnalazioni di immagini o video deepfake creati con l'intelligenza artificiale che coinvolgono lo sfruttamento sessuale dei minori.
Il NCMEC ha affermato che tra i metodi più comuni con cui i predatori utilizzano l'intelligenza artificiale c'è la modifica di immagini online esistenti per renderle esplicite. I criminali sfruttano anche chatbot di intelligenza artificiale generativa che forniscono istruzioni grafiche su come reclutare bambini da abusare.
Le leggi attuali non sono sufficienti per contrastare i deepfake basati sull'intelligenza artificiale
Sembra esserci una lacuna in ciò che può essere considerato un reato. In molte giurisdizioni, possedere immagini che oggettificano sessualmente i minori è un reato, ma le leggi non sono ancora avanzate per incorporare le immagini generate dall'intelligenza artificiale.
"Quando si accusa un bambino nel sistema federale", ha affermato il procuratore del Dipartimento di Giustizia, "l'intelligenza artificiale non cambia ciò che possiamo perseguire, ma ci sono molti stati in cui bisogna essere in grado di dimostrare che si tratta di un bambino vero". Il procuratore ha aggiunto:
"Discutere sulla legittimità delle immagini causerà problemi durante i processi. Se fossi un avvocato difensore, è esattamente quello che sosterrei."
Anche se le leggi venissero promulgate, la tecnologia abilitante sarebbe comunque necessaria per catturare i criminali e, al momento, il divario è ampio. Le associazioni per la sicurezza dei minori hanno avvertito che i dipartimenti di polizia potrebbero essere sommersi di richieste.
Leggi anche: Il capo delle Nazioni Unite avverte che l'intelligenza artificiale rende più probabile una guerra nucleare
Secondo quanto riportato dal Guardian, le immagini sessualmente esplicite di bambini generate tramite intelligenza artificiale hanno iniziato ad aumentare la loro presenza online
Il NCMEC accusa le aziende di intelligenza artificiale di non fare abbastanza per prevenire la generazione e la diffusione di contenuti di sfruttamento. L'anno scorso, solo cinque aziende di intelligenza artificiale hanno presentato volontariamente segnalazioni al Centro. A titolo di confronto, il 70% delle piattaforme di social media ha condiviso le proprie segnalazioni, ha affermato.

