New Computer, l'azienda dietro Dot AI, ha annunciato la chiusura del suo chatbot di intelligenza artificiale.
L'azienda ha dichiarato che Dot AI rimarrà operativo fino al 5 ottobre, dando agli utenti il tempo di scaricare i propri dati personali.
New Computer ha progettato Dot AI per funzionare come un'intelligenza artificiale amica e confidente per gli utenti. L'app dovrebbe comprendere gli utenti e fornire loro consigli su questioni personali, come consigli di carriera, suggerimenti su luoghi per appuntamenti e persino ascoltare le loro sfide di vita. "Dot è lì per offrire una guida personalizzata", si legge nella descrizione dell'app.
Dot interrompe il servizio
Dot AI è stata fondata dall'ex designer Apple Jason Yuan e da Sam Whitmore. Nel post del blog, i fondatori hanno spiegato che stanno chiudendo l'app perché le loro visioni future sulla sua direzione sono divergenti.
I fondatori hanno trascorso l'ultimo anno esplorando come far progredire Dot AI nelle aree dell'intelligenza personale e sociale. Tuttavia, hanno scelto di non scendere a compromessi sulla loro visione e di chiudere l'app. Hanno scritto : "Abbiamo deciso di prendere strade separate e chiudere le attività".
Stiamo chiudendo i battenti e chiudendo Dot.
Grazie a tutti voi che avete affidato a Dot le vostre storie. È stato il privilegio di una vita costruire qualcosa che ha toccato così tante delle vostre vite.
Per saperne di più: https://t.co/0BF7PYsNwS
— New Computer (@newcomputer) 5 settembre 2025
La psicosi dell'intelligenza artificiale è in aumento
La psicosi da intelligenza artificiale o psicosi da chatbot è un fenomeno in cui gli utenti sperimentano un peggioramento della paranoia o deliri quando comunicano con un chatbot basato sull'intelligenza artificiale. Il fenomeno è in aumento poiché sempre più utenti si affidano all'intelligenza artificiale per questioni personali.
Di recente, OpenAI è stata citata in giudizio dopo che un adolescente californiano si è tolto la vita. Il defunto adolescente, Adam Raine, aveva parlato di autolesionismo e suicidio con ChatGPT, che a sua volta lo aveva incoraggiato a nascondere le sue emozioni ai genitori e gli aveva persino suggerito metodi di suicidio. I genitori di Adam Raine hanno intentato una causa contro OpenAI e il CEO Sam Altman per aver dato priorità al profitto rispetto alla sicurezza.
Pochi giorni dopo, OpenAI ha annunciato un piano per indirizzare le conversazioni sensibili verso modelli più intelligenti come GPT-5 e implementare il controllo parentale. L'azienda ha dichiarato di stare collaborando con un comitato di esperti in benessere e intelligenza artificiale. L'obiettivo è rendere l'intelligenza artificiale più in grado di supportare il benessere delle persone e aiutarle a prosperare.
Gli esperti collaboreranno con una rete globale di oltre 90 medici, tra cui psichiatri e pediatri. OpenAI implementerà le nuove modifiche entro 120 giorni
Questo non è l'unicodent che ha coinvolto un'IA e che ha causato danni a un adolescente. L'anno scorso, un quattordicenne della Florida si è tolto la vita dopo aver interagito con il chatbot di Character AI. L'adolescente, Sewell Setzer III, ha sviluppato un attaccamento emotivo all'IA di nome Dany dopo aver scambiato messaggi per mesi. Ha raccontato al bot i suoi pensieri suicidi e ha perso la vita poco dopo.
La psicosi da intelligenza artificiale è in aumento ultimamente. Per arginarla, due procuratori generali degli Stati Uniti della California e del Delaware hanno inviato una lettera a OpenAI sulla sicurezza di bambini e adolescenti. Hanno scritto a OpenAI: "Sarete ritenuti responsabili delle vostre decisioni".
I fondatori di Dot AI non hanno affrontato i recenti tragici eventi o se siano stati la causa principale della chiusura della loro app complementare. Hanno scritto: "Vogliamo essere consapevoli del fatto che questo significa che molti di voi perderanno l'accesso a un amico, a un confidente e a un compagno, il che è un fatto senzadentnel software, quindi vogliamo darvi un po' di tempo per dirgli addio"

