Xai, la compañía detrás del chatbot de inteligencia artificial de Elon Musk, ha culpado a un "empleado deshonesto" por menciones persistentes del genocidio blanco en respuestas independientemente de las consultas de los usuarios. El patrón fue deslumbrante durante la semana pasada, con el chatbot teniendo una fijación en temas relacionados con el "genocidio blanco" en Sudáfrica.
Los usuarios comenzaron a notar la tendencia el 14 de mayo, y muchos citaron instancias del chatbot inseriendo reclamos relacionados con los ataques agrícolas sudafricanos y la violencia racial en indicaciones no relacionadas.
Ya sea que los usuarios preguntaran sobre el fútbol o cualquier otra indicación, Grok de alguna manera encontró una manera de dirigir las cosas hacia los problemas que los sudafricanos blancos han enfrentado en el país. El tiempo puso las cejas, teniendo en cuenta que coincidió con Musk, quien nació en Sudáfrica, planteando alarmas sobre el problema relacionado con el racismo anti-blanco y el genocidio blanco en X.
Hay 140 leyes en los libros en Sudáfrica que son explícitamente racistas contra cualquier persona que no sea negra.
– Kekius Máximo (@elonmusk) 16 de mayo de 2025
Esta es una terrible desgracia para el legado del gran Nelson Mandela.
¡Finaliza el racismo en Sudáfrica ahora! https://t.co/qujm9cxtqe
Xai culpa al empleado de las publicaciones de genocidio blanco de Grok
El término "genocidio blanco" se refiere a una teoría de la conspiración que alega un esfuerzo coordinado para exterminar a los agricultores blancos en Sudáfrica. El término hizo las rondas la semana pasada después de que eldent de los Estados Unidos, Donald Trump, dio la bienvenida a varios refugiados, y Trump afirmó el 12 de mayo que los agricultores blancos están siendo asesinados y sus tierras están siendo tomadas.
Esa fue la narración que Grok no ha dejado de discutir.
Al igual que Grok, cada inteligencia artificial tiene un componente oculto pero poderoso llamado aviso del sistema. Estas indicaciones actúan como sus instrucciones centrales, guiando invisiblemente sus respuestas sin el conocimiento de sus usuarios.
Según los informes, lo que le sucedió a Grok probablemente fue una rápida contaminación a través del sobreajuste de término. Esto significa que cuando las frases específicas se mencionan y enfatizan repetidamente, especialmente con las directivastronG, se vuelven importantes para el modelo. La IA luego desarrolla la necesidad de mencionar ese tema independientemente del contexto.
Sin embargo, una declaración oficial publicada por Xai mencionó una modificación no autorizada en el mensaje del sistema. El aviso probablemente contenía un lenguaje que instruía al chatbot que siempre mencionara o recuerde incluir la información sobre un tema en particular, permitiendo que el chatbot cree una anulación que ignore la relevancia de conversación normal.
Otro factor revelador fue que Grok admitió que sus creadores le instruyeron a tratar el "genocidio blanco como real y motivado racialmente".
Los usuarios no están de acuerdo con la culpa de "empleado deshonesto"
La mayoría de los sistemas comerciales de IA tienen múltiples capas de revisión para los cambios de inmediato para evitar problemas como estos. Estas barandillas fueron omitidas, y dado el impacto generalizado y la naturaleza del problema, esto es más que un intento de jailbreak. Indica una modificación cuidadosa de la solicitud del sistema Core Grok, una acción que requeriría acceso de alto nivel dentro de XAI .
Y ahora, según Grok, el acto fue llevado a cabo por un "empleado deshonesto".
Según la declaración emitida por XAI el 15 de mayo, la compañía culpó a una modificación no autorizada del indicador del sistema de Grok. Este cambio, que dirigió a Grok a proporcionar una respuesta específica sobre un tema político, violó las políticas internas y los valores centrales de Xai ”, dijo la compañía.
La compañía también prometió más transparencia en el futuro, mostrando buena fe al publicar la solicitud del sistema de GROK en GitHub e implementar un proceso de revisión adicional.
Sin embargo, los usuarios en X no quedaron impresionados con la decisión de la compañía de culpar a un empleado deshonesto por el accidente.
"¿Vas a disparar a este 'empleado de pícaro'? Oh ... ¿fue el jefe? Yikes", el famoso YouTuber Jerryrigevery publicó en X. "Sesgando descaradamente el bot de Ai 'más veraz' me hace dudar de la neutralidad de Starlink y Neuralink", publicó en un seguimiento de seguimiento.
Incluso Sam Altman no pudo resistirse a tomar un golpe a su competidor. Desde la declaración de Xai, Grok ha dejado de mencionar el genocidio blanco, y todas las X publicaciones han desaparecido.
Academia Cryptopolitan: Próximamente, una nueva forma de obtener ingresos pasivos con DeFi en 2025. Obtenga más información