El gran volumen de deepfakes sexualmente explícitos de niños, realizados con inteligencia artificial, dificulta a las fuerzas del orden en Estados Unidos distinguir entre niños reales en peligro y niños falsos, advirtieron fiscales y grupos de seguridad. Afirman que las imágenes son tan realistas que se ha vuelto difícil determinar si los niños reales han sido víctimas de abuso, informa The Guardian.
Lea también: El oso de peluche Poe, con tecnología ChatGPT, lee cuentos a los niños antes de dormir.
Kristina Korobov, abogada principal de Zero Abuse Project, una organización sin fines de lucro dedicada a la seguridad infantil con sede en Minnesota, afirma que el grupo ha comenzado a detectar informes de imágenes de niños reales, creadas con inteligencia artificial, que no sufrieron abuso sexual. "Pero ahora su rostro aparece en un niño que sí fue abusado", afirma.
El fiscal del Departamento de Justicia dice que "nos estamos ahogando" debido a la IA
“A veces, reconocemos la ropa de cama o el fondo de un video o imagen, al perpetrador o la serie de la que proviene, pero ahora hay otra cara de niño encima”, dijo Korobov, según The Guardian.
Los modelos de IA son capaces de generar miles de imágenes y vídeos similares a fotografías reales al día. Según el informe, esto ha facilitado que los depredadores utilicen la tecnología para comunicar contenido inapropiado en la dark web y el internet convencional.
Para las autoridades, se ha convertido en una pesadilla. «Desde la perspectiva de las fuerzas del orden, los delitos contra menores son una de las áreas con mayores recursos, y se prevé una explosión de contenido de IA», declaró un fiscal del Departamento de Justicia de EE. UU., y añadió:
“Ya nos estamos ahogando en esto”
El Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. ( NCMEC ) afirma que, en 2023, las denuncias de abuso infantil en línea aumentaron un 12 %, alcanzando los 36,2 millones. Si bien la mayoría de las denuncias estaban relacionadas con la circulación de fotos y vídeos reales de niños víctimas de abuso sexual, el centro también recibió 4700 denuncias de imágenes o vídeos deepfake generados mediante IA que involucraban la explotación sexual infantil.
El NCMEC indicó que algunas de las formas más comunes en que los depredadores han utilizado la IA incluyen la edición de imágenes existentes en línea para hacerlas explícitas. Los delincuentes también utilizan chatbots de inteligencia artificial generativa que dan instrucciones gráficas sobre cómo reclutar a menores para abusar de ellos.
Las leyes actuales no son lo suficientemente estrictas en materia de deepfakes con inteligencia artificial
Parece haber una brecha en lo que puede considerarse un delito. En muchas jurisdicciones, poseer imágenes que cosifiquen sexualmente a menores es un delito, pero las leyes aún no han avanzado para incorporar imágenes generadas por IA.
“Al imputar casos en el sistema federal”, dijo el fiscal del Departamento de Justicia, “la inteligencia artificial no cambia lo que podemos procesar, pero hay muchos estados donde hay que poder demostrar que se trata de un niño real”. El fiscal añadió:
Discutir la legitimidad de las imágenes causará problemas en los juicios. Si yo fuera abogado defensor, eso es precisamente lo que argumentaría
Incluso si se promulgan las leyes, la tecnología necesaria seguirá siendo necesaria para atrapar a los delincuentes, y actualmente existe una gran brecha. Grupos de protección infantil advirtieron que es probable que los departamentos de policía se vean inundados de solicitudes.
Lea también: El jefe de la ONU advierte que la IA aumenta la probabilidad de una guerra nuclear
Las imágenes sexualmente explícitas de niños generadas con IA comenzaron a aumentar su presencia en línea alrededor de 2022, coincidiendo con el lanzamiento de ChatGPT por OpenAI, según el informe de The Guardian.
El NCMEC acusa a las empresas de IA de no hacer lo suficiente para prevenir la generación y difusión de contenido explotador. El año pasado, solo cinco empresas de IA presentaron informes voluntariamente al Centro. En comparación, el 70 % de las plataformas de redes sociales compartieron sus informes, según el organismo.

