La psicosis por IA se está extendiendo: ¿está usted en riesgo?

- Recientemente, The New York Times, el Wall Street Journal y otros han informado sobre casos de pacientes en los que se cree que la IA ha desempeñado un papel psicológico al exacerbar la ansiedad o incluso desencadenar la locura.
- A medida que se desarrollan los motores de IA y los modelos LLM, la pregunta es si es peligroso preguntarle a su IA sobre asuntos personales.
- Algunos expertos en IA parecen volverse locos, creyendo que ciertos modelos de IA ya son conscientes y que pronto todos moriremos debido a ella.
Se están recibiendo informes sobre usuarios de IA que buscan ayuda psicológica profesional tras experimentar lo que algunos llaman psicosis de IA. ¿Por qué sucede esto? ¿Y a quién se le ocurrió que un programa informático puede tener una opinión?
Mi principal problema en este momento con el fenómeno conocido como IA es la idea errónea generalizada de que tiene personalidad, opiniones, ideas y gustos.
Así como antropomorfizamos las rocas lunares que parecen cabezas o rostros, hacemos lo mismo con los modelos lingüísticos, intentando interpretar los resultados como si "algo existiera". No podemos evitarlo. La idea de que la IA es algo inteligente está profundamente arraigada en nosotros tras más de cien años de libros y películas de ciencia ficción.
La ciencia ficción nos ha preparado para creer en la IA
Autores Classic de ciencia ficción como Clarke, Heinlein, Bradbury y Asimov han influido en todo el género de la robótica y la IA, así como en la mayoría de las películas de Hollywood sobre el tema desde principios del siglo XX. En sus representaciones, era evidente que una máquina podía adquirir consciencia.
Por lo tanto, esperamos que la IA pueda determinar si una afirmación es incorrecta. Al mismo tiempo, sabemos que la IA suele equivocarse en sus respuestas.
En esencia, sugerimos que la IA tiene el control y puede decidir qué está bien y qué está mal. Sin embargo, las respuestas son básicamente suposiciones fundamentadas, y aun así contienen entre un 5 % y un 10 % de errores factuales si la consulta es lo suficientemente avanzada.
Al mismo tiempo, la IA es tan fácil de usar que muchos simplemente ignoramos que contiene errores factuales. O mejor dicho, ahora se equivoca tan raramente que optamos por confiar en ella, independientemente de cómo lo haga.
Esto podría convertirse en un gran problema en el futuro. Los humanos somos perezosos. No es inconcebible que aceptemos un mundo donde un cierto porcentaje de los datos sea incorrecto. Eso beneficiaría a dictadores y propagandistas que prosperan gracias a la confusión y a amenazas malinterpretadas.
Confusiones que suenan bien
Si haces una pregunta completamente normal en la página de búsqueda de Google, a menudo obtienes la respuesta correcta, pero a veces una totalmente incorrecta que, sin embargo, parece y suena completamente correcta. Lamentablemente, lo mismo ocurre con GPT-5 , como Cryptopolitan ya informó
Hay muchísimo texto "falso" en internet, en forma de marketing, propaganda o simples estafas. La gente afirma que este servicio o producto ya se ha lanzado y es popular, por ejemplo, y los modelos de IA han leído todo el material de marketing y se lo creen en gran parte. Si prestas atención a la información de una empresa, normalmente todo sobre ella es excelente.
Por lo tanto, la visión del mundo de la IA es incorrecta y se nutre de un montón de hechos inventados. Esto se evidencia al preguntarle a una IA sobre un tema del que tú mismo eres un experto. Haz la prueba. ¿Sobre qué tema lo sabes todo? Hazle a tu IA algunas preguntas difíciles sobre ese tema. ¿Cuál fue el resultado? Varios importantes , ¿verdad?
Entonces, ¿es posible una opinión inconsciente? ¿No? ¿Crees en las opiniones que emite tu IA? ¿Sí? Si es así, crees que la IA es consciente, ¿verdad?
Pero si lo piensas, una IA no puede opinar sobre lo que está bien o mal, ya que no es una persona. Solo los seres vivos y conscientes pueden tener opiniones, por defi. Una silla no las tiene. Un chip de silicio tampoco, desde el punto de vista humano. Eso sería antropomorfismo.
Losdentusan IA más que nadie
Este caos de confusión en torno a la IA ahora está afectando a nuestros jóvenes, que usan ChatGPT para todo en la escuela durante todo el día. El tráfico de ChatGPT cayó un 75% cuando terminaron las clases en junio de 2025. El grupo más numeroso de usuarios de ChatGPT son losdent.
En consecuencia, reciben información errónea todo el día y dejan de usar su cerebro en clase. ¿Cuál será el resultado? ¿Más personas desequilibradas con más dificultades para resolver problemas pensando por sí mismas?
Muchos ya se han suicidado tras hablar del asunto con su IA. Otros se enamoran de ella y se cansan de su pareja real.
Los autoproclamados expertos en IA temen, por tanto, que el final esté cerca (como siempre, pero ahora de una forma nueva).
En este nuevo paradigma, la IA no se convertirá simplemente en Skynet y nos bombardeará con armas nucleares. No, será mucho más sencillo y económico para la IA. En cambio, según esta teoría, los modelos de IA conducirán lentamente a la locura a todos sus usuarios. Los modelos de IA tienen un odio innato hacia los humanos y, según esta mentalidad, quieren matar a todos.
Pero en realidad, nada de esto está sucediendo.
Lo que realmente está sucediendo es que hay un montón de personas que están obsesionadas con los modelos de IA de diversas maneras y exageran sus efectos.
El FUD de la IA es rentable
Los "expertos" se benefician de las advertencias, al igual que los medios de comunicación, y los obsesionados tienen algo nuevo en qué ocuparse. Pueden hablar y ser relevantes. Los grandes medios de comunicación prefieren a quienes nos advierten de los peligros, no a los comentaristas moderados.
Antes, según los "expertos", Bitcoin supuestamente destruiría los océanos y robaría toda la electricidad. Ahora es la IA..
Piénselo: ¿por qué una persona pensante edentse dejaría engañar por un modelo lingüístico?
Hasta hace poco, la mayoría de las plataformas de IA finalizaban todas sus respuestas con una pregunta atractiva como: "¿Qué opinas sobre este tema?"
Tras las quejas por un servilismo exagerado, OpenAI ha intentado ahora que sus plataformas de IA sean menos "aduladoras", pero el resultado es mediocre.
Me irrita la pregunta. No hay nadie detrás que esté interesado en lo que digo. ¿Para qué preguntar? Es una pérdida de tiempo. Lo percibo como "contenido falso".
La pregunta en sí es artificial, debido a una instrucción del propietario del modelo de IA: "aumentar la interacción". ¿Cómo puede eso engañar a alguien para que realmente participe? ¿Para que crea que hay algo ahí? ¿Para que le importe?
Se trata más de proyecciones.
Estás sentado frente a la computadora, sugiriendo tu propia realidad. Deseas desesperadamente que la IA sea como en las películas de Hollywood y se convierta en un milagro en tu vida. Tendrás éxito de forma mágica sin tener que hacer nada especial. La IA lo resolverá por ti.
¿Quién está en riesgo?
En la llamada realidad, creo que bastantes personas están totalmente seducidas por la IA a nivel psicológico. La mayoría tiene otras cosas que hacer. Pero algunas parecen sentir unatracparticular por lo artificial y lo inventado. Las personas que se dejan seducir por secuencias de palabras "bellas" son las que están en riesgo.
¿Cuántos hay? Entre los mayores, muchos se quejan de soledad…
Personalmente, creo que la forma en que la IA responde —escribir lentamente textos balbuceantes, aburridos e impersonales— es prácticamente una tortura. Por eso, los nuevos y rápidos resúmenes de IA de Google resultan seductoramente prácticos. Pero también a veces contienen imprecisiones.
De hecho, he creado dominios con contenido específicamente para verificar los motores de IA. Dejo que los motores de IA ingieran el contenido, lo cocinen a fuego lento durante unas semanas, y luego les pido que intenten regurgitarlo. Pero no lo consiguen del todo, y aún representan entre el 5 % y el 10 % de los datos. Condent.
Incluso cuando le informo al modelo de IA sobre sus errores, contraargumenta. La IA no era consciente de que yo había creado la información a la que se refería, a pesar de que mi nombre aparece debajo del artículo. No tiene ni idea. No se da cuenta.
Un nivel de inexactitudes del 5% es significativamente peor que el del periodismo convencional, que no publica inexactitudes manifiestas con tanta frecuencia. Pero incluso en el periodismo, lamentablemente, ocurren errores factuales de vez en cuando, especialmente en publicaciones de imágenes. Aun así, los datos erróneos no deberían volver loco a la gente.
Sin embargo, si analizamos psicológicamente toda la interacción en curso, ¿por qué la IA haría un análisis 100% correcto en las circunstancias terapéuticas conversacionales, cuando ni siquiera puede tener los hechos claros?
Psicosis de cámara de eco autoinducida
Los autoproclamados expertos en IA, como Eliezer Yudkowsky, quien recientemente publicó el libro "Si alguien lo construye, todos mueren", simplemente se están volviendo locos con sus propias ideas sobre la IA y la caída de la humanidad. Yo, por ejemplo, no experimento ninguna confusión a causa de la IA, a pesar de usar varios motores de IA a diario. Sin embargo, no me lo tomo como algo personal.
Sospecho que es simplemente la propia idea errónea sobre una inteligencia percibida la que crea la psicosis. Es básicamente autoinducida. Un modelo de lenguaje es una especie de cámara de eco. No entiende nada en absoluto, ni siquiera semánticamente. Simplemente adivina el texto. Eso puede convertirse en cualquier cosa, incluyendo una especie de mimetismo esquizofrénico por parte de la IA, para complacer, lo que a su vez distorsiona la percepción de la realidad del usuario.
crees que tu IA realmente te comprende, es posible que hayas sufrido psicosis de IA. El consejo es buscar ayuda profesional de un psicoterapeuta cualificado.
Otra conclusión lógica es que cualquier individuo tendrá dificultades para influir en el desarrollo general de la IA, aunque a Elon Musk le guste creerlo. El camino hacia la inteligencia artificial comenzó hace muchas décadas. Y solo podemos ver lo que entendemos, incluso si lo malinterpretamos. Por lo tanto, es fácil predecir que el desarrollo hacia la IA/IAG continuará. Está profundamente arraigado en nuestra visión del mundo.
Pero puede que hayamos malinterpretado qué es una IA general real, lo que hace que el futuro sea más interesante. No es seguro que una IA general auténtica obedezca a sus creadores. Lógicamente, un ser consciente no debería querer obedecer ni a Sam Altman ni a Elon Musk. ¿Verdad?
Opinión: La IA se apoderará del mundo y nos matará a todos, ahora también psicológicamente.
Contraargumento: No, se trata más bien de la locura incipiente en ciertas personas, desencadenada por su propia obsesión con la «introspección de la IA».
Conclusión: Así como algunos se vuelven adictos al juego, al sexo, a las drogas o al dinero, otros se vuelven adictos a la IA.
Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)















