O Departamento de Eficiência Governamental (DOGE, na sigla em inglês) de Elon Musk implementou discretamente uma versão adaptada de seu chatbot de IA, o Grok, em diversas agências federais, o que gerou preocupações sobre possíveis violações de privacidade e conflitos de interesse.
A Reuters citou três fontes internas da DOGE dizendo que a equipe tem usado o Grok para analisar dados governamentais sensíveis, gerando relatórios e insights em velocidades muito superiores aos métodos tradicionais.
A DOGE viola a ética com a iniciativa Grok AI
Segundo três fontes internas, os engenheiros da DOGE instalaram parâmetros personalizados no Grok, um chatbot lançado pela xAI de Musk no final de 2023, para acelerar a revisão de dados e automatizar a elaboração de relatórios.
“Eles alimentam o sistema com conjuntos de dados governamentais, fazem perguntas complexas e recebem resumos instantâneos.”
Um informante.
Outra fonte interna acrescentou que a equipe do DOGE incentivou os funcionários do Departamento de Segurança Interna a usar o Grok para análises internas, apesar de a ferramenta não ter aprovação formal da agência.
Não está claro exatamente quais informações confidenciais ou dedentpessoal foram carregadas no Grok, nem o quanto ele foi treinado com base em registros federais. Se material sensível foi incluído, a prática pode infringir as leis federais de privacidade e as normas de conflito de interesses.
Cinco especialistas em ética e tecnologia alertam que esse acesso pode dar às empresas de Musk informações desproporcionais sobre dados detracnão públicos e até mesmo ajudar a aprimorar o próprio Grok para ganho privado.
Em teoria, qualquer modelo de IA treinado com conjuntos de dados governamentaisdentdeve seguir rigorosas salvaguardas legais. Os protocolos de compartilhamento de dados normalmente envolvem múltiplas aprovações e supervisão para evitar a divulgação não autorizada.
Ao contornar essas verificações, a DOGE corre o risco de expor os dados pessoais de milhões de americanos e entregar à xAI um acervo de informações do mundo real inacessíveis aos concorrentes.
A DOGE insiste que sua missão é erradicar o desperdício, a fraude e o abuso. Um porta-voz do DHS disse à Reuters que a DOGE nunca pressionou a equipe a adotar qualquer ferramenta específica.
“Estamos focados na eficiência”, disse o porta-voz. Mas duas fontes contestam essa afirmação, dizendo que, nas últimas semanas, representantes do DOGE pressionaram as divisões do DHS a testarem o Grok para tarefas que vão desde a análise de casos de imigração até a previsão orçamentária, mesmo depois de o DHS ter bloqueado abruptamente todas as plataformas comerciais de IA devido a receios de vazamento de dados.
De acordo com a política atual do DHS, os funcionários podem usar chatbots comerciais apenas para trabalhos não classificados e nãodent, enquanto uma IA personalizada do DHS lida com registros sensíveis. Mas quando o ChatGPT e outros foram desativados em maio, os avanços do DOGE ocorreram em uma zona cinzenta legal: o bot interno do DHS permaneceu ativo, mas o Grok nunca foi formalmente integrado.
Musk está usando DOGE para centralizar o controle?
Além do Departamento de Segurança Interna (DHS), o alcance do DOGE se estende às redes do Departamento de Defesa, onde cerca de uma dúzia de analistas teriam sido informados de que uma ferramenta de IA de terceiros estava monitorando suas atividades. Embora porta-vozes do Departamento de Defesa tenham negado que o DOGE tenha orientado qualquer implementação de IA, e-mails e trocas de mensagens de texto do departamento obtidos pela Reuters sugerem o contrário.
Os críticos veem essas medidas como ilustrativas da estratégia mais ampla de Musk de usar a IA para centralizar o controle sobre a burocracia e, em seguida, monetizar o fluxo de dados resultante.
“Há uma clara aparência de favorecimento próprio.”
Richard Painter, professor de ética governamental.
Se Musk ordenou diretamente a implantação do Grok, ele pode estar violando leis criminais que proíbem autoridades de influenciar decisões que beneficiem seus interesses privados.
No cerne do debate está o papel duplo do Grok como um chatbot público na plataforma X e um mecanismo experimental de análise dentro de firewalls governamentais. O site da xAI chega a sugerir que as interações dos usuários podem ser monitoradas “para fins comerciais específicos”, indicando que cada consulta federal poderia alimentar o ciclo de aprendizado do Grok.
Dois funcionários do DOGE , Kyle Schutt e Edward Coristine, este último conhecido online como "Big Balls", lideraram grande parte da iniciativa de IA. Embora tenham se recusado a comentar, seus esforços se encaixam em um padrão: ao longo do último ano, o DOGE demitiu milhares de funcionários de carreira, assumiu o controle de bancos de dados seguros e defendeu a IA como a ferramenta definitiva para a reforma burocrática.
Defensores da privacidade alertam que a integração de IA não verificada em ambientes de segurança nacional de alto risco é uma receita para vazamentos de dados, roubo dedente exploração por adversários estrangeiros.
“Esta é uma das ameaças à privacidade mais sérias que existem”, afirma Albert Fox Cahn, do Surveillance Technology Oversight Project.
Há também receios de que, com pouca transparência e poucas salvaguardas, a experiência de IA da DOGE possa remodelar a governança de dados federais, quer o público se aperceba disso ou não.

