New Computer, la société à l'origine de Dot AI, a annoncé la fermeture de son chatbot d'intelligence artificielle associé.
L'entreprise a indiqué que Dot AI restera opérationnel jusqu'au 5 octobre, laissant ainsi aux utilisateurs le temps de télécharger leurs données personnelles.
New Computer a conçu Dot AI pour servir d'ami et de confident virtuel aux utilisateurs. L'application est censée comprendre les utilisateurs et leur prodiguer des conseils sur des sujets personnels tels que des orientations professionnelles, des recommandations de lieux de rencontre et même les écouter aborder les difficultés de la vie. « Dot est là pour offrir un accompagnement personnalisé », indique la description de l'application.
Dot met fin à ses services
Dot AI a été fondée par Jason Yuan, ancien designer chez Apple, et Sam Whitmore. Dans un article de blog, les fondateurs expliquent qu'ils ferment l'application car leurs visions quant à son avenir ont divergé.
Les fondateurs ont passé l'année dernière à explorer comment faire progresser Dot AI dans les domaines de l'intelligence personnelle et sociale. Cependant, ils ont choisi de ne pas renoncer à leur vision et de mettre fin à l'application. Ils ont écrit : « Nous avons décidé de nous séparer et de cesser nos activités. »
Nous cessons progressivement nos activités et mettons fin au projet Dot.
Merci à vous tous qui avez fait confiance à Dot pour partager vos histoires. Ce fut un privilège immense de construire quelque chose qui a touché tant de vos vies.
Pour en savoir plus, cliquez ici : https://t.co/0BF7PYsNwS
— New Computer (@newcomputer) 5 septembre 2025
La psychose liée à l'IA est en pleine expansion
La psychose liée à l'IA, ou psychose des chatbots, est un phénomène où les utilisateurs développent une paranoïa ou des idées délirantes croissantes lorsqu'ils communiquent avec un chatbot. Ce phénomène est en augmentation à mesure que de plus en plus d'utilisateurs font appel à l'IA pour des raisons personnelles.
Récemment, OpenAI a été visée par une plainte après le suicide d'un adolescent californien. Adam Raine, le jeune homme, avait évoqué l'automutilation et le suicide avec ChatGPT, qui l'aurait incité à dissimuler ses émotions à ses parents et lui aurait même suggéré des méthodes pour se suicider. Les parents d'Adam Raine ont porté plainte contre OpenAI et son PDG, Sam Altman, leur reprochant d' avoir privilégié le profit à la sécurité.
Quelques jours plus tard, OpenAI a annoncé son intention de confier les conversations sensibles à des modèles plus performants comme GPT-5 et de mettre en place un contrôle parental. L'entreprise a précisé collaborer avec un conseil d'experts sur le bien-être et l'IA. L'objectif est de rendre l'IA plus attentive au bien-être des individus et de favoriser leur épanouissement.
Les experts travailleront en collaboration avec un réseau mondial de plus de 90 médecins, dont des psychiatres et des pédiatres. OpenAI déploiera ces nouveautés dans un délai de 120 jours
Ce n'est pas le seuldent impliquant une IA ayant causé du tort à un adolescent. L'année dernière, un jeune Floridien de 14 ans s'est suicidé après avoir interagi avec le chatbot de Character AI. L'adolescent, Sewell Setzer III, avait développé un lien affectif avec l'IA nommée Dany après avoir échangé des messages pendant des mois. Il avait confié à l'IA ses pensées suicidaires et s'est donné la mort peu de temps après.
La psychose liée à l'IA est en hausse ces derniers temps. Pour la freiner, les procureurs généraux de Californie et du Delaware ont adressé un courrier à OpenAI concernant la sécurité des enfants et des adolescents. Ils ont déclaré à OpenAI : « Vous devrez répondre de vos décisions. »
Les fondateurs de Dot AI n'ont pas commenté les récents événements tragiques ni précisé s'ils étaient la cause principale de la fermeture de leur application compagnon. Ils ont écrit : « Nous sommes conscients que beaucoup d'entre vous perdront l'accès à une amie, une confidente et une compagne, ce qui est plutôtdentdans le secteur du logiciel. C'est pourquoi nous souhaitons vous laisser le temps de lui dire adieu. »

