Sam Altman, CEO da OpenAI, recentemente fez uma observação interessante no X. Segundo ele, as discussões em comunidades online estão começando a parecer cada vez mais artificiais, dificultando a distinção entre aquelas que vêm de pessoas reais e aquelas que são geradas por IA.
Em 8 de setembro, Sam Altman revelou em uma postagem no X que teve uma "experiência estranhíssima" ao ler sobre o crescimento do modelo Codex da OpenAI , o que o levou instintivamente a presumir que todos os comentários eram de contas falsas ou bots.
Tive uma experiência muito estranha lendo isso: presumo que seja tudo falso/bots, embora neste caso eu saiba que o crescimento do Codex é realmentetrone a tendência aqui é real.
Acho que há várias coisas acontecendo: pessoas reais adotaram peculiaridades da linguagem do mestrado em Direito, o Extremamente… https://t.co/9buqM3ZpKe
-Sam Altman (@sama) 8 de setembro de 2025
A observação de Altman surgiu após uma "experiência estranha"
“Tive uma experiência muito estranha lendo isso”, começou ele . “Presumo que seja tudo falso/de bots, embora neste caso eu saiba que o crescimento do Codex é realmente tron e a tendência aqui é real.” O CEO da OpenAI parecia estar insinuando que não conseguia decidir se os comentários eram reais ou de bots.
“Acho que há uma série de fatores envolvidos”, continuou ele, tentando diagnosticar a causa. Ele atribuiu isso a fatores como a assimilação de peculiaridades da “linguagem de marketing de vida” por pessoas comuns, a pressão de otimização das plataformas de mídia social que agora recompensam o engajamento e as táticas de “astroturfing” usadas por empresas.
Em conclusão, ele resumiu que o efeito geral de tudo isso é que "de alguma forma, o Twitter/Reddit com IA parece muito falso, de um jeito que não parecia há um ou dois anos"
A reação à publicação foi mista, com algumas pessoas vindas de quem tinha alguma queixa contra Altman e sua empresa.
Um comentário que me chamou a atenção veio de um usuário quedentcomo o moderador fundador do subreddit r/claudecode.
"Acho que um pouco de contexto ajuda", escreveram. "Embora os comentários naquela captura de tela possam parecer de bots, nenhuma dessas contas aciona filtros de remoção ou spam. A maioria existe há mais de 5 anos, está ativa em centenas de subreddits e não segue padrões de contas falsas. Se elas foram pagas, não há como verificarmos isso com certeza."
Segundo o usuário, “o que mudou foi o tom do subreddit desde o GPT-5. Muitas pessoas que estão entrando preferem o Codex CLI ao código Claude e, naturalmente, um grupo vocal se opõe. Comunidades de nicho sempre amplificam essas oscilações. Eu diria que a OpenAI fez um ótimo trabalho nisso.”
Altman reclamou de bots que administravam contas X
O comentário recente de Altman surge dias depois de ele ter admitido que nunca levou a sério a teoria da internet morta, até agora, quando parece que "realmente existem muitas contas do Twitter administradas por membros do movimento LLM"

A Teoria da Internet Morta é uma teoria da conspiração que afirma que a internet não é mais controlada por pessoas reais, mas principalmente por bots e conteúdo gerado por inteligência artificial. A ideia postula que a maior parte da atividade online, incluindo comentários, publicações e artigos, não é genuína e é criada para manipular a opinião pública e controlar os usuários.
De acordo com uma análise da teoria publicada em diversas fontes, incluindo a New York Magazine, ela possui duas vertentes principais: o deslocamento da atividade humana, em que bots e curadoria algorítmica dominam o que os usuários encontram, e o controle coordenado, em que governos e corporações podem estar intencionalmente selecionando conteúdo, limitando a interação genuína e amplificando vozes artificiais.
Por enquanto, não há evidências de uma vasta conspiração estatal, mas o aumento considerável do tráfego de bots e da "deterioração de links" continua alimentando o debate.
O comentário de Altman reacendeu o debate sobre o assunto, com muitos confirmando suas suspeitas ao confessarem que também haviam se deparado com respostas suspeitamente repetitivas ou geradas por IA. Outros questionaram a ironia da declaração, visto que sua empresa, a OpenAI , pode ter desempenhado o papel mais significativo na popularização da IA e dos chatbots.

