Sam Altman, PDG d'OpenAI, a récemment partagé une observation intéressante sur X. Selon lui, les discussions au sein des communautés en ligne semblent de plus en plus artificielles, ce qui le rend difficile de distinguer celles qui proviennent de personnes réelles de celles générées par l'IA.
Le 8 septembre, Sam Altman a révélé dans un article publié sur X qu'il avait vécu une « expérience des plus étranges » en lisant des articles sur la croissance du modèle Codex d'OpenAI , ce qui l'avait instinctivement amené à supposer que tous les commentaires provenaient de faux comptes ou de bots.
J'ai vécu une expérience très étrange en lisant ceci : je suppose que tout est faux/des bots, même si dans ce cas je sais que la croissance du codex est vraimenttronet que la tendance est réelle.
Je pense qu'il se passe plusieurs choses : des gens ordinaires ont adopté des expressions typiques des étudiants en master de droit, et bien d'autres choses encore… https://t.co/9buqM3ZpKe
– Sam Altman (@sama) 8 septembre 2025
L'observation d'Altman faisait suite à une « expérience étrange »
« J'ai vécu une expérience très étrange en lisant ceci », a-t-il commencé . « Je suppose que tout est faux/provient de bots, même si je sais que la croissance du codex est vraiment tron et que la tendance est bien réelle. » Le PDG d'OpenAI semblait sous-entendre qu'il n'arrivait pas à déterminer si les commentaires étaient authentiques ou provenaient de bots.
« Je pense qu’il y a plusieurs facteurs en jeu », a-t-il poursuivi, tentant d’en déterminer la cause. Il l’a attribué à divers éléments, comme l’adoption par le grand public des particularités du jargon des LLM, la pression d’optimisation exercée par les plateformes de médias sociaux qui privilégient désormais l’engagement, et le recours par certaines entreprises à des techniques de manipulation de l’opinion.
En conclusion, il a supposé que l'effet net de tout cela est que « d'une certaine manière, Twitter/Reddit gérés par l'IA semblent très artificiels, contrairement à il y a un an ou deux »
Les réactions à la publication ont été mitigées, certaines provenant de personnes ayant un compte à régler avec Altman et son entreprise.
Un commentaire en particulier a retenu mon attention : celui d’un utilisateur que j’aidentcomme le modérateur fondateur du subreddit r/claudecode.
« Un peu de contexte est utile, je pense », ont-ils écrit. « Bien que les commentaires de cette capture d'écran puissent ressembler à ceux de bots, aucun de ces comptes n'est supprimé ni signalé comme spam. La plupart existent depuis plus de cinq ans, sont actifs sur des centaines de sous-forums et ne suivent pas les schémas habituels des faux comptes. S'ils ont été payés, il nous est impossible de le vérifier avec certitude. »
Selon l'utilisateur, « ce qui a changé, c'est l'ambiance du forum depuis GPT-5. Beaucoup de nouveaux utilisateurs préfèrent l'interface en ligne de commande Codex au code Claude, et naturellement, un groupe bruyant s'y oppose. Les communautés de niche amplifient toujours ces changements. Bravo à OpenAI ! »
Altman s'est plaint de bots gérant des comptes X
La récente déclaration d'Altman intervient quelques jours après qu'il a admis n'avoir jamais pris au sérieux la théorie de la mort d'Internet, jusqu'à présent, où il semble « qu'il y ait vraiment beaucoup de comptes Twitter gérés par des étudiants en master de droit maintenant »

La théorie de l'Internet mort est une théorie du complot selon laquelle Internet ne serait plus contrôlé par des personnes réelles, mais principalement par des bots et du contenu généré par l'IA. Cette idée postule que la plupart des activités en ligne, y compris les commentaires, les publications et les articles, seraient fictives et créées de toutes pièces pour manipuler l'opinion publique et contrôler les utilisateurs.
Selon une analyse de cette théorie publiée dans de multiples sources, dont le New York Magazine, elle comporte deux volets principaux : le déplacement de l’activité humaine, où les bots et la curation algorithmique dominent ce que les utilisateurs rencontrent, et le contrôle coordonné, où les gouvernements et les entreprises peuvent intentionnellement sélectionner le contenu, limiter les interactions authentiques et amplifier les voix artificielles.
Pour l’instant, rien ne prouve l’existence d’un vaste complot d’État, mais la forte augmentation du trafic de bots et la « dégradation des liens » continuent d’alimenter le débat.
Les propos d'Altman ont relancé le débat, nombreux étant ceux qui ont confirmé ses soupçons en avouant avoir eux aussi reçu des réponses étrangement répétitives ou générées par une IA. D'autres ont relevé l'ironie de cette déclaration, étant donné que son entreprise, OpenAI , a peut-être joué un rôle majeur dans la démocratisation de l'IA et des chatbots.

