ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

Demanda del fiscal de la ciudad de San Francisco para cerrar sitios web de desnudos deepfake impulsados ​​por IA

PorEnacy MapakameEnacy Mapakame
3 minutos de lectura
San Francisco
  • Los sitios web han sido responsables de hacer circular imágenes deepfake de mujeres y niñas.
  • Durante los primeros seis meses del año, los sitios web fueron visitados más de 200 millones de veces.
  • La práctica ha dejado a las víctimas destrozadas y con pérdida de confianza en sí mismas.

El fiscal de la ciudad de San Francisco, David Chiu, anunció que su oficina está litigando contra 16 sitios web que utilizan IA para crear y distribuir imágenes deepfake no consensuadas de desnudos de mujeres y niñas. Esto ocurre en medio de una creciente atención sobre la creación y distribución de imágenes no consensuadas de IA.

La demanda, que según Chiu es la primera de su tipo en San Francisco, culpa a los operadores de los sitios web de violar las leyes estatales y federales que denuncian la pornografía deepfake, la pornografía infantil y el material pornográfico de venganza, así como la ley de competencia desleal de California.

Chiu quiere dar la alarma sobre esta mala práctica

Según el New York Times, la iniciativa fue idea de la fiscal adjunta principal Yvonne Mere, quien reunió a sus colegas para elaborar una demanda que debería resultar en el cierre de 16 sitios web.

Los nombres de los sitios web fueron censurados en la copia de la demanda puesta a disposición del público el jueves.

Aunque la oficina del fiscal dijo que aún no habíadenta la mayoría de los propietarios de los sitios web, los funcionarios de esa oficina expresaron optimismo sobre encontrar los nombres de los propietarios de los sitios y hacerlos responsables.

Durante una rueda de prensa el jueves, Chiu reveló que los sitios web producen material pornográfico no consensuado. Además de alertar sobre esta forma de abuso sexual, Chiu también insinuó que la demanda debería lograr el cierre de dichos sitios.

“Esta investigación nos ha llevado a los rincones más oscuros de internet y estoy absolutamente horrorizada por las mujeres y niñas que han tenido que soportar esta explotación”

Chiu.

En dichos sitios web, los usuarios suben fotos de personas reales completamente vestidas y utilizan IA para crear imágenes de mujeres y niñas desnudas. Los modelos de IA de los sitios se entrenaron con pornografía real e imágenes de abuso infantil para crear deepfakes.

Tal y como indica la demanda, uno de los sitios promueve la naturaleza no consensuada de las imágenes, afirmando: "Imagínate perder el tiempo invitándola a salir, cuando puedes usar [nombre del sitio web censurado] para obtener sus fotos desnuda".

La disponibilidad y accesibilidad de los modelos de IA de código abierto ha facilitado el acceso y la adaptación de motores basados ​​en IA a sus fines. Esto ha dado lugar a la creación de sitios web y aplicaciones que pueden generar desnudos deepfake desde cero o "desnudar" fotografías existentes de forma realista, a menudo a cambio de una tarifa.

San Francisco no es el único lugar donde se puede presenciar este desafío

En enero, las aplicaciones deepfake fueron noticia cuando fotos falsas de desnudos de Taylor Swift se viralizaron en línea. Muchas otras personas, mucho menos populares, fueron perseguidas antes y después de Swift.

Chiu ha admitido que “la proliferación de estas imágenes ha explotado a un número impactante de mujeres y niñas en todo el mundo”, desde celebridades hastadentde secundaria.

Mediante sus propias investigaciones, la fiscalía municipal descubrió que los sitios web recibieron más de 200 millones de visitas en los primeros seis meses de este año. La fiscalía expresó su preocupación por el hecho de que, una vez que una imagen se publica en línea, a las víctimas les resulta difícil identificar los sitios web que se utilizaron para "desnudar" sus fotografías.

Esto se debe a que las imágenes no tienen ninguna característica única nidentque permita relacionarlas con los sitios web. Además, a las víctimas les resulta difícil eliminar las fotografías de internet, lo que afecta susteem y su huella digital.

A principios de año, cinco alumnos de octavo grado fueron expulsados ​​por generar y compartir imágenes deepfake de desnudos de 16 chicas de octavo grado, superponiendo los rostros de las chicas sobre cuerpos generados por inteligencia artificial.

Casos similares se han observado en otras escuelas de California, Nueva Jersey y Washington, donde las imágenes se utilizan para humillar, intimidar y amenazar a mujeres y niñas.

El efecto neto en las víctimas, dijo la oficina del fiscal, ha sido devastador para su reputación, sufrimiento en su salud mental, pérdida desteemy, en algunos casos, provocando que las personas se vuelvan suicidas.

No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO