La diputada australiana Georgie Purcell expresó recientemente su preocupación por una imagen alterada digitalmente que distorsionó su cuerpo y le quitó partes de la ropa sin su consentimiento. Estedent pone de manifiesto las posibles consecuencias sexistas y discriminatorias de las tecnologías de inteligencia artificial sin control.
Aunque a menudo se consideran sencillas en el uso diario, las herramientas asistidas por IA pueden perpetuar inadvertidamente sesgos sociales. Al editar fotografías, estas herramientas pueden realzar ciertos atributos socialmente aceptados, como la juventud y la sexualización, especialmente prevalentes en imágenes de mujeres.
Surge una preocupación importante con la proliferación de contenido deepfake sexualizado, dirigido principalmente a mujeres. Los informes indican que un asombroso 90-95% de los vídeos deepfake son pornografía no consentida, y alrededor del 90% presenta a mujeres como víctimas. Han surgido casos de creación y difusión no consentida de imágenes deepfake sexualizadas a nivel mundial, afectando a personas de diversos grupos demográficos, incluyendo mujeres jóvenes y celebridades como Taylor Swift.
La necesidad de una acción global
Si bien existen medidas legislativas en algunas regiones para abordar la difusión no consentida de deepfakes sexualizados, las leyes relativas a su creación siguen siendo inconsistentes, especialmente en Estados Unidos. La falta de regulaciones internacionales cohesionadas subraya la necesidad de una acción global colectiva para combatir este problema eficazmente.
Los esfuerzos para detectar contenido generado por IA se ven obstaculizados por el avance de las tecnologías y la creciente disponibilidad de aplicaciones que facilitan la creación de contenido sexualmente explícito. Sin embargo, atribuir la responsabilidad exclusiva a la tecnología ignora la responsabilidad de los desarrolladores tecnológicos y las plataformas digitales de priorizar la seguridad y los derechos de los usuarios.
Australia ha tomado medidas para liderar en este sentido, con iniciativas como la Oficina del Comisionado de Seguridad Electrónica y leyes nacionales que responsabilizan a las plataformas digitales de prevenir y eliminar contenido no consensuado. Sin embargo, una colaboración global más amplia y medidas proactivas son esenciales para mitigar eficazmente los daños de los deepfakes sexualizados no consensuados.
El uso descontrolado de la IA en la edición de imágenes y la proliferación de contenido deepfake sexualizado plantean desafíos significativos que requieren marcos regulatorios integrales y una acción global colectiva. Al priorizar la seguridad y los derechos de las personas usuarias en el desarrollo y la aplicación de la tecnología, las sociedades pueden contribuir a mitigar los daños de género asociados a los abusos facilitados por la IA.

