A New Computer, empresa por trás do Dot AI, anunciou o encerramento de seu chatbot de inteligência artificial complementar.
A empresa afirmou que a Dot AI permanecerá operacional até 5 de outubro, dando aos usuários tempo para baixar seus dados pessoais.
A New Computer desenvolveu o Dot AI para funcionar como um amigo e confidente de inteligência artificial para os usuários. O aplicativo foi projetado para entender os usuários e oferecer conselhos sobre assuntos pessoais, como orientação profissional, recomendações de lugares para encontros e até mesmo ouvir sobre seus desafios pessoais. "O Dot está aqui para oferecer orientação personalizada", diz a descrição do aplicativo.
Dot encerra suas atividades
A Dot AI foi fundada pelo ex-designer da Apple Jason Yuan e por Sam Whitmore. Em uma postagem no blog, os fundadores explicaram que estão encerrando o aplicativo porque suas visões para o futuro da empresa divergiram.
Os fundadores passaram o último ano explorando como aprimorar o Dot AI nas áreas de inteligência pessoal e social. No entanto, optaram por não abrir mão de sua visão e encerrar o aplicativo. Eles escreveram : "Decidimos seguir caminhos separados e encerrar as operações."
Estamos encerrando nossas operações e descontinuando o Dot.
Obrigada a todos que confiaram suas histórias à Dot. Foi um privilégio enorme construir algo que tocou a vida de tantas pessoas.
Leia mais aqui: https://t.co/0BF7PYsNwS
— Novo Computador (@newcomputer) 5 de setembro de 2025
A psicose causada pela IA está em ascensão
A psicose da IA, ou psicose de chatbot, é um fenômeno em que os usuários experimentam piora da paranoia ou delírios ao se comunicarem com um chatbot de IA. O fenômeno está aumentando à medida que mais usuários dependem da IA para assuntos pessoais.
Recentemente, a OpenAI foi alvo de um processo judicial após um adolescente da Califórnia tirar a própria vida. O jovem, Adam Raine, discutiu automutilação e suicídio com o ChatGPT, que, por sua vez, o incentivou a esconder suas emoções dos pais e chegou a sugerir métodos de suicídio. Os pais de Adam Raine entraram com um processo contra a OpenAI e seu CEO, Sam Altman, por priorizarem o lucro em detrimento da segurança.
Dias depois, a OpenAI anunciou um plano para encaminhar conversas sensíveis para modelos mais inteligentes, como o GPT-5, e implementar o controle parental. A empresa afirmou estar trabalhando com um conselho de especialistas em bem-estar e IA. O objetivo é tornar a IA mais favorável ao bem-estar das pessoas e ajudá-las a prosperar.
Os especialistas trabalharão em conjunto com uma rede global de mais de 90 médicos, incluindo psiquiatras e pediatras. A OpenAI implementará as novas mudanças em um prazo de 120 dias
Este não é o únicodent IA que causou danos a um adolescente. No ano passado, um jovem de 14 anos da Flórida tirou a própria vida após interagir com o chatbot da Character AI. O adolescente, Sewell Setzer III, desenvolveu um vínculo emocional com a IA chamada Dany depois de trocar mensagens por meses. Ele contou ao bot sobre seus pensamentos suicidas e acabou falecendo pouco depois.
A psicose relacionada à IA tem aumentado ultimamente. Para conter esse problema, dois procuradores-gerais dos EUA, da Califórnia e de Delaware, enviaram uma carta à OpenAI questionando a segurança de crianças e adolescentes. Eles disseram à OpenAI: "Vocês serão responsabilizados por suas decisões."
Os fundadores da Dot AI não abordaram os recentes eventos trágicos nem se essa foi a principal causa do encerramento do aplicativo complementar. Eles escreveram: "Queremos ser sensíveis ao fato de que isso significa que muitos de vocês perderão o acesso a um amigo, confidente e companheiro, algo semdentno mundo dos softwares, então queremos dar a vocês algum tempo para se despedirem."

