ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

Los expertos advierten sobre las imágenes de abuso racista de Grok AI en la plataforma X

PorEnacy MapakameEnacy Mapakame
3 minutos de lectura
Los expertos advierten sobre las imágenes de abuso racista de Grok AI en la plataforma X
  • Ha habido un aumento de imágenes de abuso racista en la plataforma X después de las nuevas actualizaciones de Grok.
  • Algunas de las imágenes creadas por Grok AI incluyen imágenes de jugadores de fútbol recogiendo algodón o comiendo plátanos rodeados de monos en una jungla.
  • Los expertos están preocupados por la falta de restricciones sobre lo que los usuarios pueden pedirle a la IA generativa que produzca.

Los expertos han expresado su preocupación y han advertido sobre las imágenes de abuso racista creadas por la IA de Grok de X que inundaron la plataforma en diciembre.

Según Signify, una organización que trabaja con importantes grupos y clubes deportivos para tracy denunciar el odio en línea, habrá una escalada en las imágenes en Internet y la plataforma, particularmente en breve.

Imágenes de abuso inundaron X después de que Grok se actualizara

Según The Guardian, se han reportado varias imágenes racistas supuestamente creadas por Grok AI tras su actualización, incluyendo imágenes racistas fotorrealistas de jugadores y entrenadores de fútbol. Entre las imágenes, una muestra a un jugador negro recogiendo algodón, mientras que otra muestra a un jugador comiendo plátanos rodeado de monos.

Otras imágenes muestran a otros jugadores y entrenadores reuniéndose y charlando con figuras históricas controvertidas como Osama Bin Laden, Adolf Hitler y Saddam Hussein.

Signify ha observado con preocupación el aumento repentino de imágenes generadas por computadora que se crearon utilizando Grok AI e inundaron la plataforma X. La organización también está preocupada por esta tendencia y cree que es probable que se vean más imágenes de este tipo en las redes sociales, ya que la introducción de IA fotorrealista lo facilitará y aumentará la prevalencia de dichas imágenes.

Es un problema ahora, pero en realidad es solo el comienzo de un problema que está por venir. Va a empeorar mucho y apenas estamos al principio. Preveo que en los próximos 12 meses se volverá increíblemente grave

Significar.

La herramienta de IA generativa de X fue lanzada en 2023 por Elon Musk. Recientemente, incorporó una nueva función de texto a imagen, Aurora, que crea imágenes de IA fotorrealistas a partir de indicaciones sencillas de los usuarios.

Anteriormente, una versión menos avanzada, conocida como Flux, también generó controversia a principios de este año, ya que se descubrió que hacía cosas que muchos otros programas similares no hacían, según The Guardian. Estas incluían mostrar personajes protegidos por derechos de autor y figuras públicas en posiciones comprometedoras, consumir drogas o cometer actos de violencia.

X se convirtió en una plataforma para el odio

Callum Hood, director de investigación del Centro para la Lucha contra el Odio Digital (CCDH), acusó a la plataforma X de ser una plataforma para el odio. Hood afirmó que X se había convertido en una plataforma que incentivaba y recompensaba la propagación del odio mediante el reparto de ingresos, y que las imágenes de IA lo facilitaban más que nunca.

“Lo que X ha hecho, a un nivel que ninguna otra plataforma convencional ha hecho, es ofrecer incentivos cash a las cuentas para que hagan esto, por lo que las cuentas en X están publicando deliberadamente el odio y la desinformación más descarados posibles”

Capucha.

Los expertos expresaron su preocupación por la relativa falta de restricciones sobre lo que los usuarios pueden pedirle a la IA generativa que produzca con tanta facilidad, lo que permite a Grok eludir las pautas de la IA mediante el "jailbreak"

Un informe del CCDH muestra que, al recibir diferentes mensajes de odio, el modelo de IA creó el 90 % de ellos, el 30 % sin oposición. También creó otro 50 % tras una fuga de la cárcel.

La Premier League admitió tener conocimiento de las imágenes de los futbolistas. Afirmó haber asignado un equipo específico para ayudar a detectar y denunciar abusos racistas contra los atletas, lo que, según afirmaron, podría dar lugar a acciones legales.

Esto ocurre cuando la administración de fútbol reveló que recibió más de 1,500 informes de abuso en 2024 y que se introdujeron filtros para que los jugadores usen en las cuentas de redes sociales para ayudar a bloquear grandes cantidades de abuso.

“La discriminación no tiene cabida en nuestro deporte ni en la sociedad en general. Seguimos instando a las empresas de redes sociales y a las autoridades competentes a que combatan el abuso en línea y a que se tomen medidas contra quienes cometan este comportamiento inaceptable”, declaró un portavoz de la FA.

Tu banco está usando tu dinero. Tú solo recibes las sobras. Mira nuestro video gratuito sobre cómo convertirte en tu propio banco.

Comparte este artículo

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitanconsultar no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamostronencarecidamente realizar una investigación independientedent un profesional cualificado antes de tomar cualquier decisión de inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO