xAI dice que un "empleado rebelde" es responsable del genocidio blanco, según publica Grok

- xAI ha emitido un comunicado culpando a un “empleado rebelde” por publicaciones sobre genocidio blanco en su chatbot de inteligencia artificial Grok.
- La empresa mencionó que un empleado anónimo realizó una modificación no autorizada en el indicador del sistema.
- Los usuarios de X no están de acuerdo con la declaración y se alinean para atacar a Elon Musk.
xAI, la compañía detrás del chatbot de inteligencia artificial Grok de Elon Musk, ha culpado a un "empleado deshonesto" por las constantes menciones al genocidio blanco en las respuestas, independientemente de las consultas de los usuarios. Este patrón se hizo evidente la semana pasada, con el chatbot obsesionado con temas relacionados con el genocidio blanco en Sudáfrica.
Los usuarios comenzaron a notar la tendencia el 14 de mayo, cuando muchos citaron casos en los que el chatbot insertaba afirmaciones relacionadas con ataques a granjas sudafricanas y violencia racial en mensajes no relacionados.
Ya sea que los usuarios preguntaran sobre fútbol o cualquier otro tema, Grok, generada por Musk, quien nació en Sudáfrica, alarma sobre el racismo antiblanco y el genocidio blanco en X.
En Sudáfrica existen 140 leyes explícitamente racistas contra cualquier persona que no sea negra.
— Elon Musk (@elonmusk) 16 de mayo de 2025
Esto es una terrible vergüenza para el legado del gran Nelson Mandela. ¡
Acabemos ya con el racismo en Sudáfrica! https://t.co/qUJM9CXTqE
xAI culpa a un empleado por las publicaciones de Grok sobre el genocidio blanco
El término "genocidio blanco" se refiere a una teoría conspirativa que alega un esfuerzo coordinado para exterminar a agricultores blancos en Sudáfrica. El término se popularizó la semana pasada después de que eldent estadounidense Donald Trump acogiera a varios refugiados. El 12 de mayo, Trump afirmó que los agricultores blancos están siendo asesinados y sus tierras están siendo usurpadas.
Ésta fue la narrativa que Grok no ha dejado de discutir.
Al igual que Grok, toda inteligencia artificial posee un componente oculto pero poderoso llamado indicador del sistema. Estos indicadores actúan como sus instrucciones principales, guiando invisiblemente sus respuestas sin que sus usuarios lo sepan.
Según informes, lo que le ocurrió a Grok probablemente fue una contaminación rápida por sobreajuste de términos. Esto significa que cuando frases específicas se mencionan y enfatizan repetidamente, especialmente con directivastron, se vuelven importantes para el modelo. La IA desarrolla entonces la necesidad de mencionar ese tema independientemente del contexto.
Sin embargo, un comunicado oficial de xAI mencionó una modificación no autorizada en el mensaje del sistema. Este probablemente contenía un lenguaje que indicaba al chatbot que siempre mencionara o recordara incluir la información sobre un tema específico, lo que le permitía crear una anulación que ignoraba la relevancia conversacional habitual.
Otro factor revelador fue que Grok admitió que sus creadores le habían dado instrucciones de tratar el "genocidio blanco como algo real y motivado por el racismo".
Los usuarios no están de acuerdo sobre la culpa del "empleado deshonesto"
La mayoría de los sistemas de IA comerciales cuentan con múltiples capas de revisión para los cambios en los indicadores del sistema y así evitar problemas como estos. Estas barreras se omitieron y, dado el amplio impacto y la naturaleza del problema, esto es más que un intento de jailbreak. Indica una modificación cuidadosa del indicador principal del sistema Grok, una acción que requeriría acceso de alto nivel dentro de xAI.
Y ahora, según Grok, el acto fue llevado a cabo por un “empleado deshonesto”
Según el comunicado emitido por xAI el 15 de mayo, la compañía atribuyó la responsabilidad a una modificación no autorizada del mensaje del sistema de Grok. Este cambio, que obligaba a Grok a proporcionar una respuesta específica sobre un tema político, violaba las políticas internas y los valores fundamentales de xAI, declaró la compañía.
La compañía también prometió más transparencia en el futuro, mostrando buena fe al publicar el aviso del sistema de Grok en GitHub e implementar un proceso de revisión adicional.
Sin embargo, los usuarios de X no quedaron impresionados con la decisión de la compañía de culpar a un empleado deshonesto por el percance.
“¿Van a despedir a este ‘empleado rebelde’? ¿Ah… era el jefe? ¡Qué horror!”, publicó en X. “El sesgo tan evidente que supone para el bot de IA ‘más veraz del mundo’ me hace dudar de la neutralidad de Starlink y Neuralink”, publicó en un tuit posterior.
Ni siquiera Sam Altman pudo resistirse a criticar a su competidor. Desde la declaración de xAI, Grok dejó de mencionar el genocidio blanco y todas las publicaciones de X desaparecieron.
¿Sigues dejando que el banco se quede con lo mejor? Mira nuestro video gratuito sobre cómo ser tu propio banco.
Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)














