Sam Altman, CEO di OpenAI, ha recentemente pubblicato su X un'interessante osservazione. Secondo lui, le discussioni nelle comunità online stanno iniziando a sembrare sempre più artificiali, rendendolo difficile distinguere quali provengano da persone reali da quelle generate dall'intelligenza artificiale.
L'8 settembre, Sam Altman ha rivelato in un post su X di aver vissuto un'esperienza "stranissima" mentre leggeva della crescita del modello Codex di OpenAI , cosa che lo ha portato istintivamente a supporre che i commenti provenissero tutti da account falsi o bot.
Ho avuto un'esperienza stranissima leggendo questo: suppongo che siano tutti falsi/bot, anche se in questo caso so che la crescita del Codex è davverotrone che la tendenza qui è reale.
Penso che ci siano un sacco di cose in corso: le persone vere hanno imparato le stranezze del linguaggio LLM, l'estremamente... https://t.co/9buqM3ZpKe
— Sam Altman (@sama) 8 settembre 2025
L'osservazione di Altman è avvenuta dopo una "strana esperienza"
"Ho avuto un'esperienza stranissima leggendo questo", ha esordito . "Suppongo che siano tutti falsi/bot, anche se in questo caso so che la crescita del codice è davvero forte tron che la tendenza è reale". Il CEO di OpenAI sembrava insinuare di non riuscire a decidere se i commenti fossero reali o provenienti da bot.
"Penso che ci siano un sacco di cose in corso", ha continuato, cercando di diagnosticare la causa. L'ha attribuita a fattori come il modo in cui le persone reali hanno assimilato le stranezze del "linguaggio LLM", la pressione di ottimizzazione delle piattaforme di social media che ora premiano l'engagement e le aziende che utilizzano tattiche di "astroturfing".
In conclusione, ha ipotizzato che l'effetto netto di tutto ciò sia che "in qualche modo l'IA di Twitter/IA di Reddit sembra molto falsa, in un modo che non sembrava nemmeno un anno o due fa"
Le reazioni al post sono state contrastanti: alcune sono state espresse da persone che avevano qualcosa da ridire su Altman e la sua azienda.
Un commento che mi ha colpito è stato quello di un utente che hodentcome il moderatore fondatore del subreddit r/claudecode.
"Credo che un po' di contesto aiuti", hanno scritto. "Sebbene i commenti in quello screenshot possano sembrare simili a quelli di un bot, nessuno di quegli account attiva la rimozione o i filtri antispam. La maggior parte esiste da più di 5 anni, è attiva su centinaia di iscritti e non segue il modello degli account falsi. Se fossero stati pagati, non c'è modo per noi di verificarlo in modo affidabile"
Secondo l'utente, "ciò che è cambiato è il tono del sub da GPT-5. Molti utenti preferiscono Codex CLI al codice Claude e, naturalmente, un gruppo di persone si oppone. Le comunità di nicchia amplificano sempre queste oscillazioni. Direi che è stato un ottimo lavoro, OpenAI"
Altman si è lamentato dei bot che gestiscono X account
Il recente commento di Altman arriva pochi giorni dopo aver ammesso di non aver mai preso sul serio la teoria della morte di Internet, fino ad ora, quando sembra "che ora ci siano davvero molti account Twitter gestiti da LLM"

La teoria dell'Internet Morto è una teoria del complotto che sostiene che Internet non sia più controllato da persone reali, ma principalmente da bot e contenuti generati dall'intelligenza artificiale. L'idea postula che la maggior parte delle attività online, inclusi commenti, post e articoli, non sia autentica e sia creata per manipolare l'opinione pubblica e controllare gli utenti.
Secondo una revisione della teoria pubblicata in diverse fonti, tra cui il New York Magazine, essa presenta due filoni principali: la sostituzione dell'attività umana, in cui i bot e la selezione algoritmica dominano ciò che gli utenti incontrano, e il controllo coordinato, in cui governi e aziende potrebbero intenzionalmente selezionare i contenuti, limitando l'interazione genuina e amplificando le voci artificiali.
Per ora non ci sono prove di una vasta cospirazione gestita dallo Stato, ma il notevole aumento del traffico di bot e del "link rot" continua ad alimentare il dibattito.
Il commento di Altman ha acceso un nuovo dibattito sull'argomento, con molti che hanno confermato i suoi sospetti confessando di aver ricevuto risposte sospettosamente ripetitive o generate dall'intelligenza artificiale. Altri hanno messo in dubbio l'ironia della dichiarazione, poiché la sua azienda, OpenAI , potrebbe aver svolto il ruolo più significativo nell'integrazione di intelligenza artificiale e chatbot.

