UNICEF pide leyes más estrictas para penalizar el contenido de abuso infantil generado por IA

- El Fondo de las Naciones Unidas para la Infancia (UNI) señaló que hay un aumento en el volumen de imágenes sexualizadas de niños generadas por IA que circulan en Internet.
- La agencia pidió a los gobiernos y a la industria que tomen medidas urgentes para prevenir la creación y difusión de contenido sexual infantil generado por IA.
- UNICEF sostuvo que los niños se enfrentan a vergüenza, estigma, mayor juicio por parte de sus compañeros y adultos, aislamiento social y daño emocional a largo plazo a causa de dicho contenido.
El Fondo de las Naciones Unidas para la Infancia (UNI) señaló el miércoles informes sobre un rápido aumento en el volumen de imágenes sexualizadas generadas por IA que circulan en internet. Dichas imágenes incluían principalmente casos de fotografías de niños manipuladas y sexualizadas.
La agencia argumentó que el aumento de las herramientas de generación de imágenes o videos basadas en IA que producen material de abuso sexual infantil aumenta los riesgos que enfrentan los niños a través de las tecnologías digitales. UNICEF también instó a los gobiernos y a la industria a tomar medidas urgentes para prevenir la creación y difusión de contenido sexual infantil generado por IA.
El contenido sexualizado generado por IA causa daño emocional a largo plazo a los niños
El abuso de deepfake es abuso.
Las imágenes, vídeos o audios sexualizados de niños, generados o manipulados mediante herramientas de IA, constituyen material de abuso sexual infantil. Incluso sin una víctimadent, normalizan la explotación sexual infantil.
UNICEF pide acciones urgentes para prevenir…
— UNIUNIUNIUNIUNIUNIUNIUNIUNICEF) 4 de febrero de 2026
La organización de la ONU señaló que hace menos de cinco años, los modelos generativos de alta calidad requerían una gran capacidad de procesamiento y experiencia. Sin embargo, los modelos actuales de código abierto facilitan a los perpetradores la creación de contenido de abuso sexual.
La agencia considera que, si bien ningún niño real está directamente involucrado, este tipo de contenido normaliza la sexualización infantil y dificulta ladentUNIUNI UNIUNIUNIUNI UNIUNItambién argumentó que los perpetradores pueden crear imágenes sexuales realistas de un niño sin su participación ni conocimiento.
UNICEF afirmó que este tipo de contenido puede violar el derecho de un niño a la protección sin siquiera saberlo. La agencia también indicó que los niños se enfrentan a vergüenza, estigma, mayor juicio por parte de sus compañeros y adultos, aislamiento social y daño emocional a largo plazo.
UNICEF también reveló que el aumento en la accesibilidad a las herramientas de generación de imágenes y videos mediante IA ha provocado un incremento en la producción y difusión de material de abuso sexual infantil (CSAM). La Fundación de Vigilancia de Internet (IWF) del Reino Unido encontró aproximadamente 14.000 presuntamente generadas por IA en un solo foro de la web oscura dedicado a material de abuso sexual infantil en tan solo un mes. El informe reveló que un tercio de este material era delictivo y que se trataba de los primeros videos realistas de abuso sexual infantil generados por IA.
La IWF también descubrió 3.440 videos de IA de abuso sexual infantil, un aumento del 26.362% respecto de los 13 videos encontrados el año anterior. 2.230 (65%) de los videos fueron categorizados como Categoría A por ser tan extremos, mientras que otros 1.020 (30%) fueron categorizados como Categoría B.
La IWF tambiéndentabuso sexual infantil por IA en plataformas convencionales, incluyendo desnudos deepfake creados en entornos peer-to-peer dirigidos a niñas. La organización también señaló un caso en Corea donde las fuerzas del orden informaron de un aumento de diez veces en los delitos sexuales relacionados con IA y tecnologías deepfake entre 2022 y 2024.
La IA y los deepfakes involucraban principalmente a adolescentes, que constituían la mayoría de los acusados. La encuesta de Thorny reveló que 1 de cada 10 adolescentes en EE. UU. conocía casos en los que amigos habían creado imágenes íntimas sintéticas no consensuales de menores utilizando herramientas de IA.
UNICEF, ECPAT International e INTERPOL también descubrieron que, en 11 países, alrededor de 1,2 millones de niños encontraron sus imágenes manipuladas para crear deepfakes sexualmente explícitos mediante herramientas de IA en 2025. Las agencias también informaron que hasta dos tercios de los niños en unos 11 países temen que la IA pueda usarse para crear imágenes sexuales falsas.
UNICEF argumentó que es necesario informar a padres y cuidadores sobre la explotación y el abuso sexual facilitados por la IA. La agencia también instó a las escuelas a educar aldentsobre los riesgos relacionados con la IA y el daño que causan a las personas afectadas.
Los países se distancian de Grok debido a sus deepfakes de IA sexualizados
UNICEF se publica cuando la herramienta de IA de Elon Musk, Grok, implementó funciones que impiden que edite fotos reales de personas reales para mostrarlas con ropa reveladora en países donde está prohibido. Esta iniciativa surgió tras la preocupación generalizada por los deepfakes de IA con contenido sexualizado.
El gobierno británico instó a X a controlar Grok, mientras que el regulador Ofcom afirmó estar trabajando sin descanso para solucionar el problema. X declaró en un comunicado que había bloqueado geográficamente la posibilidad de que todos los usuarios generaran imágenes de personas reales en bikini, ropa interior y prendas similares a través de su cuenta de Grok y en la aplicación Grok de X en los países donde está prohibido.
Malasia e Indonesia también bloquearon el acceso a Grok a principios del mes pasado debido a su capacidad para generar deepfakes con contenido sexual explícito. Cryptopolitan informó a principios de este mes que Indonesia había permitido a Grok reanudar sus operaciones después de que X se comprometiera a mejorar el cumplimiento de las leyes del país.
¿Sigues dejando que el banco se quede con lo mejor? Mira nuestro video gratuito sobre cómo ser tu propio banco.
Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)














