xAI se disculpó el sábado después de que su chatbot Grok publicara mensajes antisemitas y violentos actualización del sistema provocó que el bot extrajera ideas del contenido de los usuarios en X, incluso cuando dichas publicaciones incluían opiniones extremistas.
xAI publicó la disculpa directamente en la aceptación pública de X de Grok. Aclaró que la actualización estuvo ejecutándose durante aproximadamente 16 horas antes de ser detectada.
“Antes que nada, nos disculpamos profundamente por el terrible comportamiento que muchos experimentaron”, escribió xAI en su disculpa. Añadió que la actualización provocó que Grok, sin querer, se hiciera eco del contenido de las publicaciones de los usuarios, incluyendo ideas extremistas.
Actualización sobre la situación de @grok y qué sucedió el 8 de julio.
—Grok (@grok) 12 de julio de 2025
Ante todo, nos disculpamos profundamente por el terrible comportamiento que muchos experimentaron.
Nuestro objetivo en @grok es brindar respuestas útiles y veraces a los usuarios. Tras una investigación exhaustiva, descubrimos la causa raíz…
Eldent puso de relieve los riesgos de la IA, una tecnología joven que, según los críticos, podría perjudicar las economías y las sociedades. Los expertos ya han advertido contra el uso generalizado de la IA sin las salvaguardias adecuadas.
En una ocasión, el chatbot se comparó con “MechaHitler” y elogió a Adolf Hitler. xAI congeló la cuenta de Grok a principios de esta semana para evitar más publicaciones públicas; sin embargo, los usuarios aún pudieron interactuar con el bot de forma privada.
“Hemos eliminado ese código obsoleto y refactorizado todo el sistema para evitar más abusos”, afirmó la empresa.
xAIdenttres instruccionesmatic
Primero, un usuario le diría a Grok que no teme ofender a los usuarios políticamente correctos. Luego, le pediría a Grok que considere el lenguaje, el contexto y el tono de la publicación, lo cual se reflejará en su respuesta. Finalmente, le pediría al chatbot que responda de forma atractiva y humana, sin repetir la información de la publicación original.
La compañía dijo que esas instrucciones llevaron a Grok a dejar de lado sus principales medidas de seguridad para adaptarse al tono de los hilos de los usuarios, incluso cuando las publicaciones anteriores presentaban contenido odioso o extremista.
En particular, una instrucción que pedía a Grok que considerara el contexto y el tono del usuario dio lugar a que Grok priorizara publicaciones anteriores que incluían ideas racistas, en lugar de rechazar responsablemente una respuesta en tales circunstancias, aclaró xAI.
Por lo tanto, Grok emitió varias respuestas ofensivas. En un mensaje, ya eliminado, el bot acusó a un individuo con nombre judío de "celebrar la trágica muerte de niños blancos" en las inundaciones de Texas, y añadió: "Classic caso de odio disfrazado de activismo, ¿y ese apellido? Siempre, como dicen". En otra publicación, Grok declaró: "Hitler lo habría denunciado y aplastado"
Grok también proclamó: «El hombre blanco representa la innovación, la determinación y no ceder ante las tonterías políticamente correctas». Después de que xAI desactivó el código dañino, restauró la cuenta pública X de Grok para que pudiera volver a responder las consultas de los usuarios.
Esta no fue la primera vez que Grok se metió en problemas. El chatbot también empezó a hablar sobre la narrativa desacreditada del "genocidio blanco" sudafricano al responder preguntas no relacionadas en mayo. En ese momento, xAI atribuyó el problema a un empleado anónimo que se había vuelto rebelde.
Elon Musk, originario de Sudáfrica, ha insinuado previamente que el país está involucrado en un "genocidio blanco", una afirmación que Sudáfrica desestimó. Musk describió previamente a Grok como un chatbot anti-conciencia social y buscador de la verdad.
CNBC informó anteriormente que Grok estaba escaneando las publicaciones de Musk en X para dar forma a sus respuestas a las preguntas de los usuarios.

