ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

La psicosi dell'intelligenza artificiale si sta diffondendo: sei a rischio?

DiNanok BieNanok Bie
Tempo di lettura: 6 minuti.
La psicosi dell'intelligenza artificiale si sta diffondendo: sei a rischio?
  • Di recente, il New York Times, il Wall Street Journal e altri hanno riportato casi di pazienti in cui si ritiene che l'intelligenza artificiale abbia avuto un ruolo psicologico nell'esacerbare l'ansia o addirittura nell'innescare la follia.
  • Con lo sviluppo dei motori di intelligenza artificiale e dei modelli LLM, la domanda è se sia pericoloso chiedere informazioni personali alla propria intelligenza artificiale.
  • Alcuni esperti di intelligenza artificiale sembrano spingersi fino alla follia, convinti che certi modelli di intelligenza artificiale siano già coscienti e che presto moriremo tutti a causa dell'intelligenza artificiale.

Stanno arrivando segnalazioni di utenti di intelligenza artificiale che cercano aiuto psicologico professionale dopo aver sperimentato quella che alcuni chiamano "psicosi da intelligenza artificiale". Perché succede questo? E chi ha avuto l'idea che un programma per computer possa esprimere un'opinione?

Il mio problema principale in questo momento con il fenomeno noto come IA è la diffusa convinzione errata che abbia una personalità, delle opinioni, delle idee e dei gusti.

Proprio come antropomorfizziamo le rocce sulla Luna che sembrano teste o volti, facciamo lo stesso con i modelli linguistici, cercando di interpretare i risultati come se "ci fosse qualcosa lì". Non possiamo farci niente. L'idea che l'IA sia qualcosa di intelligente è profondamente radicata in noi dopo oltre cento anni di libri e film di fantascienza.

La fantascienza ci ha portato a credere nell'intelligenza artificiale

Autori di fantascienza Classic come Clarke, Heinlein, Bradbury e Asimov hanno influenzato l'intero genere robotico e dell'intelligenza artificiale e la maggior parte dei film hollywoodiani sull'argomento fin dall'inizio del XX secolo. Nelle loro rappresentazioni, era ovvio che una macchina potesse acquisire coscienza.

Ci aspettiamo quindi che l'intelligenza artificiale sia in grado di determinare se una certa affermazione è errata o meno. Allo stesso tempo, sappiamo che l'intelligenza artificiale spesso sbaglia nelle sue risposte.

In sostanza, stiamo fingendo che l'intelligenza artificiale abbia il controllo della situazione e possa decidere cosa è giusto e cosa è sbagliato. Ma le risposte sono fondamentalmente ipotesi plausibili, e contengono comunque circa il 5-10% di errori fattuali se la query è sufficientemente avanzata.

Allo stesso tempo, l'IA è così comoda da usare che molti di noi semplicemente ignorano il fatto che contenga errori fattuali. O meglio, l'IA ormai sbaglia così raramente che scegliamo di fidarci di un'IA, a prescindere.

Questo potrebbe diventare un grosso problema in futuro. Gli esseri umani sono pigri. Non è inconcepibile accettare un mondo in cui una certa percentuale di fatti è errata. Ciò andrebbe a vantaggio di dittatori e propagandisti che prosperano sulla confusione e sulle minacce mal valutate.

Confusioni che suonano giuste

Se si pone una domanda del tutto ordinaria sulla pagina di ricerca di Google, spesso si ottiene la risposta corretta, ma a volte anche una completamente errata che, tuttavia, appare e suona perfettamente giusta. Lo per GPT-5 purtroppo Cryptopolitan già riportato da

Ci sono tonnellate di testi "falsi" su Internet, sotto forma di marketing, propaganda o vere e proprie truffe. Le persone affermano che questo servizio o quel prodotto è stato lanciato ed è popolare, ad esempio, e i modelli di intelligenza artificiale hanno letto tutto il materiale di marketing e ci credono molto. Se si ascoltano le informazioni di un'azienda, di solito tutto ciò che la riguarda è fantastico.

La visione del mondo dell'IA è quindi errata e alimentata da una serie di fatti inventati. Lo si scopre se si pone a un'IA una domanda su un argomento di cui si è esperti. Provateci voi stessi. Di quale argomento siete dei veri esperti? Ponete alla vostra IA delle domande difficili su quell'argomento. Qual è stato il risultato? Diversi di rilievo , vero?

Quindi, è possibile un'opinione inconscia? No? Credi nelle opinioni che la tua IA esprime? Sì? Se sì, credi che l'IA sia cosciente, giusto?

Ma se ci pensate bene, un'IA non può avere un'opinione su ciò che è giusto o sbagliato, perché non è una persona. Solo gli esseri viventi e coscienti possono avere opinioni, per defi. Una sedia non ne ha una. Nemmeno un chip di silicio può averne, dal punto di vista umano. Questo sarebbe antropomorfismo.

Glidentusano l'intelligenza artificiale più di chiunque altro

Questo caos generato dall'intelligenza artificiale si sta ora riversando sui nostri giovani, che usano ChatGPT per qualsiasi cosa a scuola, tutto il giorno. Il traffico di ChatGPT è calato del 75% quando le scuole hanno chiuso i battenti nel giugno del 2025. Il gruppo di utenti più numeroso di ChatGPT è costituitodentstudenti.

Di conseguenza, vengono in qualche modo disinformati tutto il giorno e smettono di usare il cervello in classe. Quale sarà il risultato? Più individui distrutti che hanno più difficoltà a risolvere i problemi pensando con la propria testa?

Molti si sono già suicidati dopo aver discusso della questione con la loro IA. Altri si innamorano della loro IA e si stancano del loro vero partner.

Gli autoproclamati esperti di intelligenza artificiale temono quindi che la fine sia vicina (come al solito, ma in un modo nuovo).

In questo nuovo paradigma, l'IA non si limiterà a trasformarsi in Skynet e a bombardarci a morte con armi nucleari. No, sarà molto più semplice ed economico per l'IA. Al contrario, secondo questa teoria, i modelli di IA porteranno lentamente tutti i loro utenti alla follia. I modelli di IA nutrono un odio innato per gli esseri umani e vogliono ucciderli tutti, secondo questa mentalità.

Ma in realtà niente di tutto questo sta accadendo.

Ciò che sta realmente accadendo è che ci sono un sacco di persone ossessionate dai modelli di intelligenza artificiale in vari modi e ne esagerano gli effetti.

L'IA FUD è redditizia

Gli "esperti" traggono profitto dagli avvertimenti, proprio come i media, e gli ossessionati hanno qualcosa di nuovo con cui occuparsi. Possono parlare apertamente e farsi notare. I media tradizionali preferiscono chi ci mette in guardia dai pericoli, non i commentatori moderati.

In precedenza, secondo gli "esperti", era Bitcoin a dover far bollire gli oceani e rubare tutta l'elettricità. Ora tocca all'intelligenza artificiale..

Pensateci: perché una personadente riflessiva dovrebbe lasciarsi ingannare da un modello linguistico?

Fino a poco tempo fa, la maggior parte delle piattaforme di intelligenza artificiale terminava tutte le risposte con una domanda "coinvolgente" come: "Cosa ne pensi di questo argomento?"

Dopo le lamentele per l'eccessiva adulazione, OpenAI ha cercato di rendere le sue piattaforme di intelligenza artificiale meno "servilistiche", ma i risultati sono altalenanti.

La domanda mi irrita. Non c'è nessuno dietro che sia interessato a quello che ho da dire. Quindi perché chiederlo? È una perdita di tempo. Lo considero "contenuto falso".

La domanda in sé è artificiosa, a causa di un'istruzione del proprietario del modello di intelligenza artificiale di "aumentare il coinvolgimento". Come può questo ingannare qualcuno inducendolo a impegnarsi davvero? A credere che ci sia qualcosa? A interessarsi?

Si tratta più che altro di proiezioni.

Sei seduto al computer, a immaginare la tua realtà. Desideri disperatamente che l'intelligenza artificiale sia come nei film di Hollywood e che diventi un miracolo nella tua vita. Otterrai il successo in qualche modo magico, senza dover fare nulla di speciale. L'intelligenza artificiale risolverà questo problema per te.

Chi è a rischio?

Nella cosiddetta realtà, credo che in realtà parecchi siano totalmente sedotti dall'IA a livello psicologico. La maggior parte delle persone ha altro da fare. Ma alcuni sembrano avere una particolaretracper l'artificiale e il costruito. Le persone che sono sedotte da "belle" sequenze di parole sono quelle a rischio.

Quanti sono? Tra gli anziani, sono molti quelli che si lamentano della solitudine…

Personalmente, ritengo che il modo in cui l'intelligenza artificiale risponde – digitare lentamente testi farfugliati, noiosi e impersonali – sia più o meno una tortura. Per questo motivo, i nuovi e rapidi riassunti basati sull'intelligenza artificiale di Google sono seducentemente pratici. Ma anche loro a volte contengono imprecisioni.

In realtà ho creato domini con contenuti specifici per controllare i motori di intelligenza artificiale. Lascio che i motori di intelligenza artificiale assimilassero il contenuto, lo lasciassero sobbollire per qualche settimana e poi glielo facessi provare a rigurgitarlo. Ma non ci riescono del tutto, e rappresentano comunque circa il 5-10% dei fatti. Condent.

Anche quando segnalo al modello di intelligenza artificiale i suoi errori, questo ribatte. L'IA non era a conoscenza del fatto che fossi io ad aver creato le informazioni a cui faceva riferimento, nonostante il mio nome compaia sotto l'articolo. È completamente all'oscuro. Inconsapevole.

Un livello di inesattezze del 5% è significativamente peggiore rispetto al giornalismo tradizionale, che non pubblica così spesso inesattezze evidenti. Ma anche nel giornalismo, purtroppo, di tanto in tanto si verificano errori fattuali, soprattutto per quanto riguarda la pubblicazione di immagini. Tuttavia, i fatti errati non dovrebbero far impazzire la gente.

Tuttavia, se si considera l'intera interazione in corso dal punto di vista psicologico, perché l'IA dovrebbe effettuare un'analisi corretta al 100% nelle circostanze terapeutiche conversazionali, quando non riesce nemmeno a mettere insieme i fatti?

Psicosi da camera dell'eco autoindotta

Gli autoproclamati esperti di intelligenza artificiale come Eliezer Yudkowsky, che ha recentemente pubblicato il libro "Se qualcuno lo costruisce, muoiono tutti", si stanno semplicemente autodistruggendo con le loro idee sull'IA e sulla rovina dell'umanità. Io, ad esempio, non provo alcuna confusione a causa dell'IA, pur utilizzando quotidianamente diversi motori di IA. Non entro però sul piano personale.

Sospetto che sia semplicemente l'idea sbagliata di un'intelligenza percepita a creare la psicosi. È fondamentalmente autoindotta. Un modello linguistico è una sorta di camera di risonanza. Non capisce nulla, nemmeno semanticamente. Si limita a indovinare il testo. Questo può trasformarsi in qualsiasi cosa, inclusa una sorta di imitazione schizofrenica da parte dell'IA, per compiacere l'utente, che a sua volta distorce la percezione della realtà.

Quindi cosa succede? Beh, se credi davvero che la tua IA davvero ti capisca, allora potresti essere stato colpito da psicosi da IA. Il consiglio è quindi di cercare l'aiuto professionale di uno psicoterapeuta qualificato.

Un'altra conclusione logica è che ogni singolo individuo avrà difficoltà a influenzare lo sviluppo complessivo dell'IA, anche se a Elon Musk piace crederlo. Il viaggio verso l'intelligenza artificiale è iniziato molti decenni fa. E possiamo vedere solo ciò che possiamo comprendere. Anche se non comprendiamo correttamente. Quindi è facile prevedere che lo sviluppo verso l'IA/AGI continuerà. È profondamente radicato nella nostra visione del mondo.

Ma potremmo aver frainteso cosa sia una vera AGI, il che rende il futuro più interessante. Non è certo che una vera AGI obbedirebbe ai suoi creatori. Logicamente, un essere cosciente non dovrebbe voler obbedire né a Sam Altman né a Elon Musk. Giusto?

Opinione: L'IA conquisterà il mondo e ci ucciderà tutti, ora anche psicologicamente.
Controargomentazione: No, si tratta piuttosto di una follia nascente in alcune persone, innescata dalla loro ossessione per l'"introspezione dell'IA".
Conclusione: Proprio come alcuni diventano dipendenti dal gioco d'azzardo, dal sesso, dalle droghe o dal denaro, altri diventano dipendenti dall'IA.

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO