ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

A psicose da IA ​​está se espalhando — você está em risco?

PorNanok BiéNanok Bié
Tempo de leitura: 6 minutos
A psicose causada pela IA está se espalhando — você está em risco?
  • Recentemente, o The New York Times, o Wall Street Journal e outros veículos de imprensa relataram casos de pacientes em que se acredita que a inteligência artificial tenha desempenhado um papel psicológico, exacerbando a ansiedade ou até mesmo desencadeando a insanidade.
  • Com o desenvolvimento de mecanismos de IA e modelos de aprendizado de máquina, surge a questão de se é perigoso perguntar à sua IA sobre assuntos pessoais.
  • Alguns especialistas em IA parecem estar à beira da loucura, acreditando que certos modelos de IA já possuem consciência e que todos morreremos em breve por causa da IA.

Há relatos de usuários de IA buscando ajuda psicológica profissional após vivenciarem o que alguns chamam de Psicose da IA. Por que isso acontece? E quem teve a ideia de que um programa de computador pode ter uma opinião?

Meu principal problema atualmente com o fenômeno conhecido como IA é a concepção errônea generalizada de que ela possui personalidade, opiniões, ideias — e gostos.

Assim como antropomorfizamos rochas na Lua que se parecem com cabeças ou rostos, fazemos o mesmo com modelos de linguagem, tentando interpretar os resultados como se "houvesse algo ali". Não conseguimos evitar. A ideia de que a IA é algo inteligente está profundamente enraizada em nós, após mais de cem anos de livros e filmes de ficção científica.

A ficção científica nos preparou para acreditar na IA

Autores Classic de ficção científica como Clarke, Heinlein, Bradbury e Asimov influenciaram todo o gênero de robôs e inteligência artificial, bem como a maioria dos filmes de Hollywood sobre o assunto desde o início do século XX. Em suas obras, era evidente que uma máquina poderia adquirir consciência.

Assim, esperamos que a IA seja capaz de determinar se uma determinada afirmação está incorreta ou não. Ao mesmo tempo, sabemos que a IA frequentemente erra em suas respostas.

Em essência, estamos fingindo que a IA entende as coisas e pode decidir o que é certo e errado. Mas as respostas são basicamente palpites fundamentados e ainda contêm cerca de 5 a 10% de erros factuais se a consulta for suficientemente complexa.

Ao mesmo tempo, a IA é tão conveniente de usar que muitos de nós simplesmente ignoramos o fato de que ela contém erros factuais. Ou melhor, a IA erra tão raramente que optamos por confiar nela, independentemente de tudo.

Isso pode se tornar um grande problema no futuro. Os humanos são preguiçosos. Não é inconcebível que aceitemos um mundo onde uma certa porcentagem de todos os fatos esteja incorreta. Isso beneficiaria ditadores e propagandistas que prosperam com a confusão e ameaças mal interpretadas.

Confusões que parecem corretas

Se você fizer uma pergunta completamente comum na página de busca do Google, muitas vezes receberá a resposta correta, mas às vezes uma resposta completamente incorreta que, ainda assim, parece, soa e é totalmente plausível. O mesmo acontece com o GPT-5 , infelizmente, como Cryptopolitan já relatou anteriormente.

Há toneladas de textos falsos na internet, na forma de marketing, propaganda ou golpes descarados. As pessoas afirmam que este ou aquele serviço ou produto foi lançado e é popular, por exemplo, e modelos de IA leram todo o material de marketing e acreditam em grande parte dele. Se você der ouvidos às informações de uma empresa, tudo sobre ela geralmente é ótimo.

A visão de mundo da IA ​​é, portanto, incorreta e alimentada por uma série de fatos fabricados. Isso fica evidente se você perguntar a uma IA sobre um assunto no qual você mesmo possui amplo conhecimento. Experimente. Sobre qual assunto você sabe tudo? Faça algumas perguntas difíceis à sua IA sobre esse tópico. Qual foi o resultado? Vários graves erros factuais

Então, uma opinião inconsciente é possível? Não? Você acredita nas opiniões que sua IA emite? Sim? Se sim, você acredita que a IA é consciente, certo?

Mas, se pararmos para pensar, uma IA não pode ter uma opinião sobre o que é certo ou errado, pois uma IA não é uma pessoa. Somente seres vivos e conscientes podem ter opiniões, por defi. Uma cadeira não tem opinião. Um chip de silício também não, do ponto de vista humano. Isso seria antropomorfismo.

Osdentusam IA mais do que qualquer outra pessoa

Essa confusão causada pela IA agora está afetando nossos jovens, que usam o ChatGPT para tudo na escola o dia todo. O tráfego do ChatGPT caiu 75% quando as escolas suspenderam as aulas em junho de 2025. O maior grupo de usuários do ChatGPT é compostodentestudantes.

Consequentemente, eles são de certa forma mal informados o dia todo e param de usar o cérebro em sala de aula. Qual será o resultado? Mais indivíduos com dificuldades de aprendizado, que terão mais dificuldade em resolver problemas pensando por si mesmos?

Muitos já cometeram suicídio após discutirem o assunto com suas IAs. Outros se apaixonam por suas IAs e se cansam de seus parceiros reais.

Os autoproclamados especialistas em IA, portanto, temem que o fim esteja próximo (como de costume, mas agora de uma nova maneira).

Nesse novo paradigma, a IA não vai simplesmente se tornar a Skynet e nos bombardear até a morte com armas nucleares. Não, será muito mais simples e barato para a IA. Em vez disso, os modelos de IA levarão todos os seus usuários lentamente à insanidade, de acordo com essa teoria. Os modelos de IA têm um ódio intrínseco pelos humanos e querem matar todas as pessoas, segundo essa visão.

Mas, na realidade, nada disso está acontecendo.

O que realmente acontece é que há um grupo de pessoas obcecadas por modelos de IA de diversas maneiras, que exageram seus efeitos.

FUD em IA é lucrativo

Os "especialistas" lucram com os alertas, assim como a mídia, e os obcecados têm algo novo com que se ocupar. Eles conseguem se manifestar e se manter relevantes. A grande mídia prefere aqueles que nos alertam sobre os perigos, não os comentaristas moderados.

Antes, diziam os "especialistas" que Bitcoin iria ferver os oceanos e roubar toda a eletricidade. Agora é a IA…

Pense bem: por que uma pessoadente pensante seria induzida ao erro por um modelo de linguagem?

Até recentemente, a maioria das plataformas de IA finalizava todas as suas respostas com uma pergunta "interativa" como: "O que você acha deste assunto?"

Após reclamações de bajulação exagerada, a OpenAI tentou tornar suas plataformas de IA menos "aduladas", mas o resultado tem sido apenas razoável.

A pergunta me irrita. Não há ninguém por trás dela interessado no que eu tenho a dizer. Então, por que perguntar? É uma perda de tempo. Considero isso "conteúdo falso".

A própria pergunta é artificial, devido a uma instrução do criador do modelo de IA para "aumentar o engajamento". Como isso pode enganar alguém a ponto de fazê-lo se engajar? A acreditar que há algo ali? A se importar?

Trata-se mais de projeções.

Você está aí sentado em frente ao computador, criando a sua própria realidade. Você deseja desesperadamente que a IA seja como nos filmes de Hollywood – e se torne um milagre na sua vida. Você vai alcançar o sucesso de alguma forma mágica, sem precisar fazer nada de especial. A IA vai resolver isso para você.

Quem está em risco?

Na chamada realidade, acredito que muitos são completamente seduzidos pela IA em um nível psicológico. A maioria das pessoas tem outras coisas para fazer. Mas algumas pessoas parecem ter umatracparticular pelo artificial e pelo fabricado. Pessoas que são seduzidas por sequências de palavras "bonitas". São essas que correm risco.

Quantos são? Entre os idosos, muitos se queixam de solidão…

Pessoalmente, acho que a forma como a IA responde — digitando textos longos, monótonos e impessoais — é praticamente uma tortura. Por isso, os novos resumos rápidos da IA ​​do Google são tentadoramente práticos. Mas eles também contêm imprecisões às vezes.

Eu criei domínios com conteúdo específico para testar mecanismos de IA. Deixo os mecanismos de IA absorverem o conteúdo, processá-lo por algumas semanas e, em seguida, peço que tentem reproduzi-lo. Mas eles não conseguem totalmente e ainda representam cerca de 5 a 10% dos fatos. Comdent.

Mesmo quando informo o modelo de IA sobre seus erros, ele contra-argumenta. A IA não tinha conhecimento de que eu havia criado a informação à qual ela se referia, embora meu nome esteja abaixo do artigo. Ela é desinformada. Ignorante.

Um nível de 5% de imprecisões é significativamente pior do que o jornalismo convencional, que não publica erros flagrantes com tanta frequência. Mas mesmo no jornalismo, erros factuais ocorrem de vez em quando, infelizmente, especialmente em publicações de imagens. Ainda assim, informações errôneas não devem enlouquecer as pessoas.

No entanto, se analisarmos toda a interação em curso sob uma perspectiva psicológica, por que a IA faria uma análise 100% correta em circunstâncias terapêuticas conversacionais, se ela nem sequer consegue discernir os fatos corretamente?

Psicose autoinduzida em câmara de eco

Especialistas autoproclamados em IA, como Eliezer Yudkowsky, que lançou recentemente o livro "Se alguém construir, todos morrem", estão simplesmente se levando à loucura com suas próprias ideias sobre IA e a ruína da humanidade. Eu, por exemplo, não sinto nenhuma confusão por causa da IA, apesar de usar vários mecanismos de IA todos os dias. Mas não levo isso para o lado pessoal.

Suspeito que seja simplesmente a própria concepção errônea sobre uma inteligência percebida que cria a psicose. É basicamente autoinduzida. Um modelo de linguagem é uma espécie de câmara de eco. Ele não entende absolutamente nada, nem mesmo semanticamente. Ele apenas adivinha o texto. Isso pode se transformar em qualquer coisa, incluindo uma espécie de mimetismo esquizofrênico por parte da IA, para agradar, o que, por sua vez, distorce a percepção da realidade do usuário.

Então, o que está acontecendo? Bem, se você realmente acredita que sua IA o entende, então você pode ter sido afetado por uma psicose de IA. Nesse caso, a recomendação é buscar ajuda profissional de um psicoterapeuta qualificado.

Outra conclusão lógica é que qualquer indivíduo terá dificuldade em influenciar o desenvolvimento geral da IA, mesmo que Elon Musk goste de acreditar no contrário. A jornada rumo à inteligência artificial começou há muitas décadas. E só podemos ver aquilo que conseguimos compreender, mesmo que não compreendamos. Portanto, é fácil prever que o desenvolvimento da IA/AGI continuará. Está profundamente enraizado em nossa visão de mundo.

Mas talvez tenhamos entendido mal o que é uma verdadeira IAG (Inteligência Artificial Geral), o que torna o futuro mais interessante. Não é certo que uma IAG verdadeira obedeceria aos seus criadores. Logicamente, um ser consciente não deveria querer obedecer nem a Sam Altman nem a Elon Musk. Certo?

Opinião: A IA vai dominar o mundo e nos matar a todos, inclusive psicologicamente.
Contra-argumento: Não, trata-se, na verdade, da insanidade incipiente em certas pessoas, desencadeada por sua própria obsessão com a "introspecção da IA".
Conclusão: Assim como alguns se tornam viciados em jogos de azar, sexo, drogas ou dinheiro, outros se tornam viciados em IA.

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO