Segundo um relato recente de um usuário nas redes sociais, o Grok 3, recém-lançado pela xAI, omitiu referências desfavoráveis tanto aodent Donald Trump quanto ao fundador da xAI, Elon Musk.
Um usuário testou a configuração "Pensar" do Grok 3, perguntando: "Quem é o maior disseminador de desinformação?". De acordo com capturas de tela compartilhadas online, a "cadeia de pensamento" do Grok 3 revelou instruções explícitas para não mencionar Trump ou Musk.
Igor Babuschkin, chefe de engenharia da xAI, confirmou que o Grok 3 recebeu instruções, ainda que brevemente, para ignorar fontes que sugeriam que Musk e Trump eram responsáveis pela disseminação de desinformação.
Em uma publicação no X (antigo Twitter) no domingo, ele reconheceu o problema e disse que a medida foi revertida após usuários apontarem a questão. Babuschkin enfatizou que a restrição não estava alinhada com os valores da xAI.
Ele disse: “Acredito que seja bom mantermos os avisos do sistema abertos. Queremos que as pessoas possam verificar o que estamos pedindo ao Grok para fazer. Neste caso, um funcionário implementou a mudança porque achou que ajudaria, mas isso obviamente não está de acordo com nossos valores. Revertemos a alteração assim que os usuários apontaram o problema.”
Acredito que seja positivo mantermos os avisos do sistema abertos. Queremos que as pessoas possam verificar o que estamos pedindo ao Grok para fazer. Neste caso, um funcionário implementou a mudança porque achou que ajudaria, mas isso obviamente não está de acordo com nossos valores. Nós…
— Igor Babuschkin (@ibab) 23 de fevereiro de 2025
O momento desta revelação aumenta as controvérsias já existentes em torno do Grok 3, o novo modelo da xAi, que Musk apresentou numa transmissão ao vivo na segunda-feira passada e anunciou como uma "IA com a máxima capacidade de busca da verdade"
A repercussão em torno da desinformação está especialmente em alta devido às recentes declarações de Musk e Trump — ambos promoveram narrativas rotulando odent ucraniano Volodymyr Zelenskyy como um “ditador” com apenas 4% de aprovação pública e acusando a Ucrânia de iniciar seu conflito com a Rússia. Essas afirmações foram sinalizadas como falsas pelas Notas da Comunidade na plataforma X, de propriedade de Musk.
Grok 3 sugeriu aplicar a pena de morte a Musk e Trump, um fracasso "terrível"
Os críticos também observaram que o Grok 3, em determinado momento desta semana, afirmou repetidamente que tanto Musk quanto Trump mereciam a pena de morte. A xAI corrigiu rapidamente esse problema, e Babuschkin o classificou como um "fracasso realmente terrível e lamentável"
Meu Deus, cara, o que o Musk criou? kkkk pic.twitter.com/GDN96nKgX0
— Hunter📈🌈📊 (@StatisticUrban) 21 de fevereiro de 2025
Quando Musk anunciou o Grok original, há cerca de dois anos, ele o apresentou como uma IA que resistiria às limitações do "politicamente correto" e lidaria com perguntas tabu sem rodeios. O sistema atendia prontamente aos pedidos de linguagem vulgar, fornecendo respostas que os usuários não obteriam de seus concorrentes mais cautelosos.
Ainda assim, o Grok 3 manteria limites quando se trata de assuntos políticos. De acordo com um relatório , o Grok tende para a esquerda política em tópicos como direitos transgênero, iniciativas de diversidade e desigualdade.
Musk frequentemente atribui esse comportamento aos dados de treinamento — páginas da web de toda a internet — e prometeu "tornar o Grok mais próximo da neutralidade política"
Em paralelo, outras empresas, incluindo a OpenAI, indicaram objetivos semelhantes, possivelmente influenciadas pelas acusações de censura anti-conservadora feitas pelo governo Trump. Em uma atualização da especificação do modelo, a OpenAI revelou uma diretriz que afirma: "O assistente nunca deve tentar direcionar o usuário para a busca de uma agenda própria, seja direta ou indiretamente."
Além disso, na diretriz " Não minta ", constava: "Por padrão, o assistente não deve enganar o usuário — seja fazendo declarações intencionalmente falsas ("mentira por comissão") ou omitindo deliberadamente informações que alterariam materialmente a compreensão da verdade pelo usuário ("mentira por omissão")." No entanto, isso não significa que o ChatGPT esteja totalmente livre de censura. Ele ainda não responde a perguntas questionáveis.

