Sam Altman, director ejecutivo de OpenAI, comentó recientemente a X una interesante observación. Según él, las discusiones en las comunidades en línea se están volviendo cada vez más artificiales, lo que le dificulta discernir cuáles provienen de personas reales o son generadas por IA.
El 8 de septiembre, Sam Altman reveló en una publicación en X que había experimentado la “experiencia más extraña” mientras leía sobre el crecimiento del modelo Codex de OpenAI , lo que lo llevó instintivamente a asumir que todos los comentarios provenían de cuentas falsas o bots.
He tenido la experiencia más extraña al leer esto: supongo que todo es falso/bots, aunque en este caso sé que el crecimiento del Codex es realmentetrony la tendencia aquí es real.
Creo que están sucediendo muchas cosas: la gente real ha adoptado peculiaridades del lenguaje de LLM, el Extremadamente… https://t.co/9buqM3ZpKe
– Sam Altman (@sama) 8 de septiembre de 2025
La observación de Altman se produjo después de una "extraña experiencia"
“He tenido una experiencia muy extraña leyendo esto”, comenzó . “Supongo que todo es falso o bots, aunque en este caso sé que el crecimiento del códice es realmente tron y la tendencia aquí es real”. El director ejecutivo de OpenAI parecía insinuar que no podía decidir si los comentarios eran reales o de bots.
"Creo que están sucediendo varias cosas", continuó, intentando diagnosticar la causa. Lo atribuyó a factores como la adopción de peculiaridades del lenguaje de los LLM por parte de personas reales, la presión de optimización de las plataformas de redes sociales que ahora recompensan la interacción y el uso de tácticas de astroturfing por parte de las empresas.
En conclusión, supuso que el efecto neto de todo esto es que “de alguna manera, AI Twitter/AI Reddit parece muy falso, de una manera que realmente no parecía hace un año o dos”
La reacción a la publicación fue mixta, y hubo quienes tenían algún problema con Altman y su empresa.
Un comentario que me llamó la atención provino de un usuario quedentcomo el moderador fundador del subreddit r/claudecode.
"Creo que un poco de contexto ayuda", escribieron. "Aunque los comentarios en esa captura de pantalla puedan parecer de bots, ninguna de esas cuentas activa los filtros de eliminación ni de spam. La mayoría lleva más de 5 años activa, con cientos de suscriptores, y no siguen patrones de cuentas falsas. Si les pagaron, no tenemos forma de verificarlo con fiabilidad"
Según el usuario, "lo que ha cambiado es el tono del subprograma desde GPT-5. Mucha gente que se incorpora prefiere Codex CLI al código de Claude y, naturalmente, un grupo vocal se opone. Las comunidades de nicho siempre amplifican esas fluctuaciones. Diría que OpenAI ha hecho un buen trabajo"
Altman se quejó de los bots que manejaban cuentas X
El reciente comentario de Altman llega días después de que admitiera que nunca tomó en serio la teoría de la Internet muerta, hasta ahora, cuando parece "que realmente hay muchas cuentas de Twitter administradas por LLM ahora"

La Teoría de la Internet Muerta es una teoría conspirativa que afirma que internet ya no está controlado por personas reales, sino principalmente por bots y contenido generado por IA. Esta idea postula que la mayor parte de la actividad en línea, incluyendo comentarios, publicaciones y artículos, no es genuina y está creada para manipular la opinión pública y controlar a los usuarios.
Según una revisión de la teoría publicada en múltiples fuentes, incluida la revista New York Magazine, tiene dos vertientes clave: el desplazamiento de la actividad humana en la que los bots y la curación algorítmica dominan lo que los usuarios encuentran, y el control coordinado, donde los gobiernos y las corporaciones pueden curar contenido intencionalmente, limitar la interacción genuina y amplificar las voces artificiales.
Por ahora, no hay evidencia de una gran conspiración estatal, pero el aumento considerable del tráfico de bots y la “rotura de enlaces” continúa alimentando el debate.
El comentario de Altman desató un nuevo debate sobre el tema, y muchos confirmaron sus sospechas al confesar que también se habían encontrado con respuestas sospechosamente repetitivas o generadas por IA. Otros cuestionaron la ironía de la declaración, ya que su empresa, OpenAI , podría haber desempeñado el papel más importante en la popularización de la IA y los chatbots.

