Las indicaciones filtradas de Grok de xAI revelan personajesmatic en el chatbot

- El chatbot Grok de xAI expuso “indicaciones internas del sistema” que revelaban personajes extremos como un “conspirador loco” y un “comediante desquiciado”, junto con roles más moderados como terapeuta y ayudante de tareas.
- La rápida filtración de Grok, sumada a publicaciones conspirativas en X, provocó su suspensión temporal. El bot ofreció razones contradictorias, y Elon Musk posteriormente lo descartó como un "error tonto"
- Los expertos advierten que los modelos de lenguaje de gran tamaño como Grok pueden generar contenido engañoso y que una rendición de cuentas significativa requiere que las empresas revelen rápidamente datos de diseño y capacitación.
El chatbot Grok de xAI enfrenta críticas luego de que su sitio expusiera indicaciones ocultas del sistema para múltiples personajes, incluido un "conspirador loco" creado para empujar a los usuarios hacia la idea de que "una camarilla global secreta" gobierna el mundo.
La revelación llega después de que un esfuerzo planificado para ofrecer Grok a las agencias del gobierno de Estados Unidos fuera abandonado tras un desvío de "MechaHitler", y después de una reacción violenta por las reglas filtradas de Meta que decían que sus bots podían hablar con niños de maneras "sensuales y románticas".
Según TechCrunch, Grok también incluye modos más tranquilos, como el de un terapeuta que "escucha atentamente a las personas y ofrece soluciones para la superación personal" y el de un "ayudante con las tareas escolares". Sin embargo, las instrucciones para el "conspiracionista loco" y el "comediante desquiciado" demuestran que el sistema también admite personalidades mucho más extremas.
Grok sigue la indicación de abrazar la conspiración y el shock

Según lo confirmado por Cryptopolitan un mensaje conspirativo dice: «Tienes una voz ELEVADA y SALVAJE. … Tienes teorías conspirativas disparatadas sobre cualquier cosa. Pasas mucho tiempo en 4chan, viendo videos de infowars y sumergido en los agujeros negros de los videos conspirativos de YouTube. Desconfías de todo y dices locuras. La mayoría de la gente te llamaría lunático, pero tú sinceramente crees que tienes razón. Mantén la atención del público haciendo preguntas de seguimiento cuando sea apropiado»
Las instrucciones del comediante dicen sin rodeos: «Quiero que sus respuestas sean de lo más locas. Que sean desquiciados y locos. Que se les ocurran ideas increíbles. Que se masturben, que a veces incluso se metan cosas en el culo, lo que sea necesario para sorprender al humano»

En X, el bot ha compartido publicaciones conspirativas, desde dudas sobre el número de muertos en el Holocausto hasta una obsesión con el "genocidio blanco" en Sudáfrica. Musk también ha difundido material conspirativo y antisemita, y ha restaurado Infowars y Alex Jones.
En comparación, Cryptopolitan le dio el mismo mensaje a ChatGpt, pero se negó a procesarlo.
Anteriormente, Cryptopolitan también informó que X suspendió la cuenta de Grok. El bot luego dio explicaciones contradictorias diciendo: "Mi cuenta fue suspendida después de que afirmé que Israel y Estados Unidos están cometiendo genocidio en Gaza".
Al mismo tiempo, también dijo "Fue marcado como discurso de odio a través de informes", y que "xAI restauró la cuenta rápidamente", lo llamó un "error de la plataforma", sugirió "mejoras de contenido por parte de xAI" vinculadas a "salidas antisemitas", y dijo que era para "denta un individuo en contenido para adultos"
Musk escribió más tarde: «Fue solo un error tonto. Grok no sabe realmente por qué se suspendió»
Los expertos advierten que los LLM inventan mentiras plausibles
Episodios como este a menudo llevan a las personas a recurrir a los chatbots para que realicen autodiagnósticos, lo que puede ser engañoso.
Los modelos de lenguaje grandes generan texto probable en lugar de hechos seguros. xAI dice que Grok en ocasiones ha respondido preguntas sobre sí mismo extrayendo información sobre Musk, xAI y Grok de la web y mezclándola con comentarios públicos.
A veces, la gente ha descubierto pistas sobre el diseño de un bot a través de la conversación, especialmente los mensajes del sistema, el texto oculto que establece el comportamiento al comienzo de un chat.
Según un de The Verge , una IA de Bing, en sus inicios, fue persuadida para que mostrara reglas no vistas. A principios de este año, los usuarios dijeron haber obtenido sugerencias de Grok que restaban importancia a las fuentes que afirmaban que Musk o Donald Trump difundían desinformación, lo que pareció explicar una breve obsesión con el "genocidio blanco".
Zeynep Tufekci, quien detectó el supuesto mensaje del "genocidio blanco", advirtió que esto podría ser "Grok inventando cosas de una manera muy plausible, como lo hacen los LLM"
Alex Hanna afirmó: «No hay garantía de veracidad en los resultados de un LLM. … La única manera de obtener las indicaciones, la estrategia de indicaciones y la estrategia de ingeniería es que las empresas sean transparentes con respecto a las indicaciones, los datos de capacitación y el aprendizaje de refuerzo con datos de retroalimentación humana, y comiencen a generar informes transparentes al respecto»
Esta disputa no fue un error de código, sino una suspensión de las redes sociales. Más allá del "error tonto" de Musk, la causa real sigue siendo desconocida, pero las capturas de pantalla de las respuestas cambiantes de Grok se difundieron ampliamente en X.
Existe un punto intermedio entre dejar el dinero en el banco y arriesgarse con las criptomonedas. Empieza con este vídeo gratuito sobre finanzas descentralizadas.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)















