La Fundación de Vigilancia de Internet (IWF) está preocupada porque la prevalencia de material de abuso sexual infantil (CSAM) generado por IA en Internet puede seguir aumentando, impulsada por los avances en las herramientas de IA.
El organismo de control de seguridad ha indicado que, a medida que las herramientas de IA generativa se vuelven más sofisticadas, también se dificulta distinguir entre imágenes o vídeos reales y contenido falso generado por IA. Según la organización, las imágenes generadas por IA desde 2024 son más realistas que las que se vieron por primera vez en 2023.
La Fundación de Vigilancia de Internet observa un aumento del CSAM.
La IWF teme que aumente la presencia en internet de material de abuso sexual infantil generado por IA, dado que los pervertidos se aprovechan de los avances en esta tecnología, que facilita el uso y la difusión de herramientas. Este organismo de control de la seguridad ya ha detectado un incremento de dicho material en internet.
La organización ya ha detectado casos de manipulación de material de abuso sexual infantil (CSAM, por sus siglas en inglés), mientras que otros casos involucran pornografía para adultos con el rostro de un menor en las grabaciones. Según la IWF, algunos de los contenidos consisten en vídeos de unos 20 segundos de duración.
El director de tecnología de la IWF, Dan Sexton, reveló que existen posibilidades de que surjan más sistemas CSAM basados en IA si las herramientas de vídeo con IA siguen la misma tendencia que las herramientas de generación de imágenes con IA, ya que la tecnología está creciendo a un ritmo acelerado.
“Me atrevería a decir que si sigue la misma tendencia, veremos más vídeos”, afirmó.
Sexton añadió que también hay muchas probabilidades de que los futuros vídeos de IA sean de “mayor calidad y realismo”.
Según analistas de la IWF, la mayoría de los vídeos revisados por la organización en un foro clandestino frecuentado por pedófilos eran deepfakes parciales. En estos casos, se utilizaron modelos de IA disponibles gratuitamente en línea para manipular las imágenes, incluidas las de víctimas conocidas de abuso sexual infantil, sobre vídeos de abuso sexual infantil y pornografía para adultos ya existentes.
La organización encontró nueve vídeos de este tipo, mientras que un pequeño número de vídeos creados completamente con IA eran de calidad básica.
(1/4) generado por IA : El año pasado, fuimos de los primeros en alertar sobre la proliferación de imágenes realistas de abuso sexual infantil generadas por IA pic.twitter.com/s4igkjHH78
— Fundación de Vigilancia de Internet (IWF) (@IWFhotline) 22 de julio de 2024
El organismo de control quiere penalizar la producción de material de abuso sexual infantil.
La IWF está impulsando leyes que penalicen la producción de este tipo de material, incluyendo la elaboración de guías para su creación. También debería penalizarse el desarrollo de herramientas y plataformas que permitan la creación de CSAM (Material de Explotación Sexual Infantil).
Esto se produce después de que un estudio realizado este año en un único foro de la dark web revelara la publicación de 12.000 nuevas imágenes generadas por IA durante un período de un mes.
Según la IWF, nueve de cada diez de esas imágenes eran realistas y podrían ser procesadas bajo las mismas leyes del Reino Unido que cubren el CSAM real.
Lea también: Hombre de Texas sentenciado por comprar pornografía infantil con criptomonedas
El año pasado, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) informó haber recibido numerosos reportes de pervertidos que utilizaban inteligencia artificial de diversas maneras, como por ejemplo, introduciendo texto para crear imágenes de abuso infantil. En algunos casos, los depredadores modificaron fotografías previamente subidas para convertirlas en imágenes sexualmente explícitas y abusivas.
La directora ejecutiva de IWF, Susie Hargreaves, destacó la necesidad de regular las herramientas de IA generativa para limitar la proliferación de CSAM.
“Sin los controles adecuados, las herramientas de IA generativa proporcionan un campo de juego para que los depredadores en línea hagan realidad sus fantasías más perversas y repugnantes”, dijo Hargreaves.
Hargreaves añadió que la IWF estaba empezando a ver que cada vez se compartía y vendía más material de abuso sexual infantil en sitios web comerciales sobre este tema.
Según The Guardian, otra organización que gestiona una línea directa para denunciar abusos reveló haber encontrado material de abuso sexual infantil (CSAM, por sus siglas en inglés) generado por IA a la venta en plataformas online por parte de los delincuentes.

