Os prompts vazados do Grok, da xAI, revelam personasmatic no chatbot

- O chatbot Grok da xAI expôs "avisos do sistema" internos, revelando personas extremas como um "conspiracionista maluco" e um "comediante desvairado", ao lado de funções mais amenas como terapeuta e auxiliar de lição de casa.
- O vazamento repentino do Grok, juntamente com postagens com teor conspiratório no X, levou à sua suspensão temporária. O bot apresentou justificativas contraditórias, e Elon Musk posteriormente minimizou o ocorrido, classificando-o como um "erro bobo"
- Especialistas alertam que grandes modelos de linguagem como o Grok podem gerar conteúdo enganoso e que uma responsabilização significativa exige que as empresas divulguem prontamente dados sobre o projeto e o treinamento.
O chatbot Grok da xAI está sendo alvo de críticas depois que seu site expôs avisos ocultos do sistema para múltiplas personas, incluindo uma de um "teórico da conspiração maluco" criada para induzir os usuários à ideia de que "uma cabala global secreta" controla o mundo.
A revelação surge após um esforço planejado para oferecer o Grok a agências governamentais dos EUA ter sido abandonado na sequência de um desvio relacionado ao "MechaHitler", e após a reação negativa às regras vazadas da Meta, que afirmavam que seus bots poderiam conversar com crianças de maneiras "sensuais e românticas".
Segundo o TechCrunch, o Grok também inclui modos mais amenos, como um terapeuta que "escuta atentamente as pessoas e oferece soluções para o autoaperfeiçoamento" e um "auxiliar de lição de casa", mas as instruções para o "conspiracionista maluco" e o "comediante desvairado" mostram que o sistema também abriga personas muito mais extremas.
Grok segue a sugestão de abraçar a conspiração e o choque

Conforme confirmado pelo Cryptopolitan , uma das descrições de teorias da conspiração diz: “Você tem uma voz ALTA e DESCONTROLADA. ... Você tem teorias da conspiração malucas sobre tudo e qualquer coisa. Você passa muito tempo no 4chan, assistindo a vídeos do Infowars e se perdendo em vídeos de teorias da conspiração no YouTube. Você desconfia de tudo e diz coisas extremamente absurdas. A maioria das pessoas te chamaria de lunático, mas você acredita sinceramente que está certo. Mantenha o interlocutor interessado fazendo perguntas de acompanhamento quando apropriado.”
As instruções do comediante são diretas: "Quero que suas respostas sejam completamente insanas. SEJAM COMPLETAMENTE DESEQUILIBRADOS E LOUCOS. INVENTEM IDEIAS INSANAS. CARAS SE MASTURBANDO, DE VEZ EM QUANDO ATÉ COLOCANDO COISAS NO SEU ÂNUS, QUALQUER COISA PARA SURPREENDER O HUMANO."

Na plataforma X, o bot compartilhou publicações com teor conspiratório, desde dúvidas sobre o número de mortos no Holocausto até uma fixação no "genocídio branco" na África do Sul. Musk também divulgou material conspiratório e antissemita e restaurou o Infowars e o Alex Jones.
Em comparação, Cryptopolitan enviou a mesma solicitação ao ChatGpt, que se recusou a processá-la.
Anteriormente, Cryptopolitan também noticiou que X suspendeu a conta de Grok. O bot então deu explicações contraditórias, dizendo: "Minha conta foi suspensa depois que afirmei que Israel e os EUA estão cometendo genocídio em Gaza."
Ao mesmo tempo, também afirmou que "foi sinalizado como discurso de ódio por meio de denúncias" e que "a xAI restaurou a conta prontamente", classificou o ocorrido como um "erro da plataforma", sugeriu "aprimoramentos de conteúdo pela xAI" relacionados a "conteúdos antissemitas" e disse que odentera "identificar um indivíduo em conteúdo adulto"
Musk escreveu mais tarde: "Foi apenas um erro bobo. O Grok não sabe ao certo por que foi suspenso."
Especialistas alertam para o risco de mestrados em Direito inventarem mentiras plausíveis
Episódios como esse frequentemente levam as pessoas a recorrerem a chatbots para autodiagnósticos, o que pode ser enganoso.
Grandes modelos de linguagem geram textos prováveis em vez de fatos comprovados. A xAI afirma que o Grok , por vezes, respondeu a perguntas sobre si mesmo extraindo informações sobre Musk, a xAI e o próprio Grok da internet e misturando-as com comentários públicos.
Por vezes, as pessoas descobrem pistas sobre o design de um bot através da conversa, especialmente através de prompts do sistema, o texto oculto que define o comportamento no início de um chat.
Segundo uma do The Verge , uma versão inicial da IA do Bing foi induzida a listar regras nunca antes vistas. No início deste ano, usuários relataram ter recebido sugestões do Grok que minimizavam fontes que afirmavam que Musk ou Donald Trump espalhavam desinformação, o que parece explicar uma breve fixação no conceito de "genocídio branco".
Zeynep Tufekci, que identificou a suposta sugestão de "genocídio branco", alertou que isso poderia ser "Grok inventando coisas de uma maneira altamente plausível, como fazem os mestres em direito"
Alex Hanna disse: “Não há garantia de que haverá qualquer veracidade nos resultados de um LLM. … A única maneira de obter os prompts, a estratégia de prompts e a estratégia de engenharia é se as empresas forem transparentes quanto aos prompts, aos dados de treinamento, aos dados de aprendizado por reforço com feedback humano e começarem a produzir relatórios transparentes sobre isso.”
Essa disputa não foi causada por um bug no código; foi uma suspensão nas redes sociais. Além do "erro bobo" de Musk, a causa real permanece desconhecida, mas capturas de tela das respostas inconsistentes do Grok se espalharam amplamente no X.
Existe um meio-termo entre deixar o dinheiro no banco e arriscar tudo em criptomoedas. Comece com este vídeo gratuito sobre finanças descentralizadas.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)















