El Observatorio de Internet de Stanford ha hecho un descubrimiento preocupante: más de 1000 imágenes falsas de abuso sexual infantil en LAION-5B, un conjunto de datos utilizado para entrenar generadores de imágenes de IA. Este hallazgo, publicado en abril, ha suscitado serias preocupaciones sobre las fuentes y los métodos empleados para recopilar materiales de entrenamiento de IA.
LAION-5B, asociado con el creador de imágenes de IA Stable Diffusion de Stability AI, con sede en Londres, recopiló estas imágenes mediante el muestreo de contenido de redes sociales y sitios web pornográficos. El descubrimiento de dicho contenido en materiales de capacitación de IA es alarmante, considerando el uso generalizado y la posible influencia de estas plataformas.
Abordar el desafío con tecnología
Los investigadores de Stanford, en su afán pordentestas imágenes, no visualizaron directamente el contenido abusivo. En su lugar, utilizaron la tecnología PhotoDNA de Microsoft, una herramienta diseñada para detectar imágenes de abuso infantil mediante la comparación de imágenes hash con contenido abusivo conocido de diversas bases de datos.
Los hallazgos del equipo de Stanford, comunicados a organizaciones sin fines de lucro relevantes en Estados Unidos y Canadá, subrayan la urgente necesidad de implementar medidas más rigurosas para la gestión de los conjuntos de datos de entrenamiento de IA. Los investigadores sugieren el uso de herramientas como PhotoDNA para futuras compilaciones de conjuntos de datos con el fin de filtrar contenido dañino. Sin embargo, también destacan los desafíos que supone la limpieza de conjuntos de datos abiertos, especialmente en ausencia de una autoridad centralizada que los aloje.
En respuesta al informe, LAION (Red Abierta de Inteligencia Artificial a Gran Escala) eliminó temporalmente sus conjuntos de datos para garantizar su seguridad antes de volver a publicarlos. LAION enfatizó su política de tolerancia cero con el contenido ilegal y la necesidad de precaución al manejar materiales tan sensibles.
Las implicaciones y respuestas más amplias
Este problema no se limita al conjunto de datos en cuestión. El informe de Stanford sugiere que incluso una pequeña cantidad de imágenes abusivas puede afectar significativamente a las herramientas de IA, permitiéndoles generar miles de deepfakes. Esto representa una amenaza global para jóvenes y niños, ya que no solo perpetúa, sino que también amplifica, el abuso de víctimas reales.
La comercialización apresurada de muchos proyectos de IA generativa ha sido criticada, y expertos como David Thiel, tecnólogo jefe del Observatorio de Internet de Stanford, abogan por una mayor atención a la compilación de conjuntos de datos. Thiel enfatiza que este extenso rastreo a nivel de internet debería limitarse a las operaciones de investigación y no publicarse en código abierto sin una verificación exhaustiva.
Ante estos hallazgos, Stability AI, un usuario destacado del conjunto de datos LAION, ha tomado medidas para mitigar los riesgos de uso indebido. Se han diseñado versiones más recientes de su modelo Stable Diffusion para dificultar la creación de contenido dañino. Sin embargo, una versión anterior, publicada el año pasado, aún presenta riesgos y se utiliza ampliamente en otras aplicaciones.
Las reacciones internacionales a este problema han sido diversas. En Estados Unidos, el gobierno está creando un instituto de seguridad de IA para evaluar los riesgos que plantean los modelos de IA. De igual manera, Australia está implementando nuevos algoritmos para evitar compartir material de abuso sexual infantil creado por IA. En el Reino Unido, los principales desarrolladores de IA han acordado colaborar con los gobiernos para probar nuevos modelos antes de su lanzamiento.
La Cumbre mundial sobre seguridad de la IA celebrada en Gran Bretaña presenció la firma de la «Declaración de Bletchley» por parte de más de 25 países, entre ellos Estados Unidos e India, así como la Unión Europea. Este acuerdo busca establecer un enfoque común para la supervisión de la IA, lo que subraya el compromiso de la comunidad internacional con la gestión responsable de los riesgos de la IA.
El descubrimiento de pornografía infantil en conjuntos de datos de entrenamiento de IA plantea profundas preocupaciones éticas y de seguridad. Pone de relieve la necesidad de mecanismos más rigurosos de curación y monitorización de datos en el desarrollo de tecnologías de IA. A medida que la IA continúa evolucionando e impregnando diversos aspectos de la vida, garantizar el uso ético y la implementación segura de estas tecnologías se vuelve cada vez más crucial.

