Sam Altman, CEO von OpenAI, teilte kürzlich auf X eine interessante Beobachtung mit. Seiner Meinung nach wirken Diskussionen in Online-Communities zunehmend künstlich, sodass es ihm schwerfällt, zu unterscheiden, welche von echten Menschen stammen und welche von KI generiert werden.
Am 8. September enthüllte Sam Altman in einem X-Post, dass er beim Lesen über das Wachstum des Codex-Modells von OpenAI , was ihn instinktiv zu der Annahme veranlasste, dass die Kommentare alle von gefälschten Accounts oder Bots stammten.
Ich habe beim Lesen dieses Beitrags eine sehr merkwürdige Erfahrung gemacht: Ich nehme an, dass alles gefälscht ist/von Bots stammt, obwohl ich in diesem Fall weiß, dass das Wachstum des Codex wirklichtronist und der Trend hier real ist.
Ich glaube, da spielen mehrere Dinge eine Rolle: Echte Menschen haben Eigenheiten der LLM-Sprache übernommen, das Extrem… https://t.co/9buqM3ZpKe
– Sam Altman (@sama) 8. September 2025
Altmans Beobachtung erfolgte nach einem „seltsamen Erlebnis“
„Ich habe beim Lesen dieser Kommentare eine äußerst merkwürdige Erfahrung gemacht“, begann er . „Ich gehe davon aus, dass alles gefälscht ist bzw. von Bots stammt, obwohl ich weiß, dass Codex ein starkes Wachstum verzeichnet tron der Trend hier real ist.“ Der CEO von OpenAI schien anzudeuten, dass er sich nicht entscheiden konnte, ob die Kommentare echt waren oder von Bots stammten.
„Ich glaube, da spielen mehrere Faktoren eine Rolle“, fuhr er fort und versuchte, die Ursache zu ergründen. Er führte sie unter anderem darauf zurück, dass sich Privatpersonen Eigenheiten der Fachsprache angeeignet hätten, der Optimierungsdruck von Social-Media-Plattformen, die nun Engagement belohnen, und der Einsatz von Astroturfing-Taktiken durch Unternehmen.
Abschließend resümierte er, dass der Nettoeffekt all dessen darin bestehe, dass sich „KI-Twitter/KI-Reddit irgendwie sehr unecht anfühlen, was vor ein oder zwei Jahren überhaupt nicht der Fall war.“
Die Reaktionen auf den Beitrag waren gemischt, einige stammten von Leuten, die Altman und seinem Unternehmen etwas übel nahmen.
Ein Kommentar, der besonders hervorstach, stammte von einem Nutzer, den ich als Gründungsmoderator des Subreddits r/claudecodedent.
„Etwas Kontext hilft“, schrieben sie. „Die Kommentare im Screenshot mögen zwar nach Bot aussehen, aber keines dieser Konten löst eine Löschung oder Spamfilterung aus. Die meisten existieren seit über fünf Jahren, sind in Hunderten von Subreddits aktiv und folgen keinen typischen Mustern von Fake-Accounts. Falls sie bezahlt wurden, können wir das nicht zuverlässig überprüfen.“
Laut dem Nutzer hat sich seit GPT-5 der Ton im Subreddit verändert. Viele neue Mitglieder bevorzugen Codex CLI gegenüber Claude-Code, und natürlich gibt es eine lautstarke Gruppe, die dagegen ankämpft. Nischen-Communities verstärken solche Schwankungen immer. Gut gemacht, OpenAI!
Altman beschwerte sich über Bots, die X-Konten betreiben
Altmans jüngster Kommentar kommt wenige Tage, nachdem er zugegeben hatte, die Theorie vom toten Internet nie ernst genommen zu haben, bis jetzt, wo es so aussieht, als gäbe es „tatsächlich eine Menge von LLM betriebener Twitter-Accounts“

Die Theorie vom toten Internet ist eine Verschwörungstheorie, die behauptet, das Internet werde nicht mehr von echten Menschen, sondern hauptsächlich von Bots und KI-generierten Inhalten kontrolliert. Sie postuliert, dass die meisten Online-Aktivitäten, einschließlich Kommentare, Beiträge und Artikel, nicht authentisch sind und ausschließlich dazu dienen, die öffentliche Meinung zu manipulieren und Nutzer zu kontrollieren.
Laut einer in mehreren Quellen, darunter dem New York Magazine, veröffentlichten Überprüfung der Theorie besteht sie aus zwei Hauptsträngen: Verdrängung menschlicher Aktivitäten, bei der Bots und algorithmische Kuration das dominieren, was Benutzer erleben, und koordinierte Kontrolle, bei der Regierungen und Unternehmen möglicherweise absichtlich Inhalte kuratieren, echte Interaktionen einschränken und künstliche Stimmen verstärken.
Bislang gibt es keine Beweise für eine groß angelegte, staatlich gesteuerte Verschwörung, aber der beträchtliche Anstieg des Bot-Verkehrs und der „Link-Verrottung“ befeuert die Debatte weiterhin.
Altmans Kommentar entfachte eine neue Debatte zu diesem Thema. Viele bestätigten seine Vermutungen und berichteten, ebenfalls auf verdächtig repetitive oder KI-generierte Antworten gestoßen zu sein. Andere hinterfragten die Ironie der Aussage, da sein Unternehmen OpenAI möglicherweise maßgeblich zur Etablierung von KI und Chatbots beigetragen hat.

