La parlamentare australiana Georgie Purcell ha recentemente sollevato preoccupazioni riguardo a un'immagine modificata digitalmente che ha distorto il suo corpo e rimosso parti dei suoi vestiti senza il suo consenso. Questodent getta luce sulle potenziali conseguenze sessiste e discriminatorie delle tecnologie di intelligenza artificiale incontrollate.
Sebbene spesso considerati semplici nell'uso quotidiano, gli strumenti assistiti dall'intelligenza artificiale possono inavvertitamente perpetuare pregiudizi sociali. Quando vengono utilizzati per modificare le fotografie, questi strumenti possono esaltare alcuni attributi socialmente riconosciuti, come la giovinezza e la sessualizzazione, particolarmente evidenti nelle immagini di donne.
Una preoccupazione significativa deriva dalla proliferazione di contenuti deepfake a sfondo sessuale, rivolti prevalentemente alle donne. I rapporti indicano che un sorprendente 90-95% dei video deepfake è costituito da pornografia non consensuale, con circa il 90% di donne come vittime. Casi di creazione e condivisione non consensuale di immagini deepfake a sfondo sessuale sono emersi a livello globale, con un impatto su individui di diverse fasce demografiche, tra cui giovani donne e celebrità come Taylor Swift.
La necessità di un'azione globale
Sebbene in alcune regioni esistano misure legislative per contrastare la condivisione non consensuale di deepfake a sfondo sessuale, le leggi che ne disciplinano la creazione rimangono incoerenti, in particolare negli Stati Uniti. La mancanza di una normativa internazionale coerente sottolinea la necessità di un'azione collettiva globale per contrastare efficacemente questo problema.
Gli sforzi per rilevare i contenuti generati dall'intelligenza artificiale sono ostacolati dall'evoluzione delle tecnologie e dalla crescente disponibilità di app che facilitano la creazione di contenuti sessualmente espliciti. Tuttavia, attribuire la colpa esclusivamente alla tecnologia trascura la responsabilità degli sviluppatori tecnologici e delle piattaforme digitali di dare priorità alla sicurezza e ai diritti degli utenti.
L'Australia ha adottato misure per guidare questo aspetto, con iniziative come l'Ufficio del Commissario per la Sicurezza Elettronica e leggi nazionali che responsabilizzano le piattaforme digitali nella prevenzione e nella rimozione di contenuti non consensuali. Tuttavia, una più ampia collaborazione globale e misure proattive sono essenziali per mitigare efficacemente i danni dei deepfake a sfondo sessuale non consensuale.
L'uso incontrollato dell'intelligenza artificiale nell'editing delle immagini e la proliferazione di contenuti deepfake a sfondo sessuale pongono sfide significative, che richiedono quadri normativi completi e un'azione globale collettiva. Dando priorità alla sicurezza e ai diritti degli utenti nello sviluppo e nell'applicazione delle tecnologie, le società possono impegnarsi per mitigare i danni di genere associati agli abusi commessi dall'intelligenza artificiale.

