NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Die KI-Psychose breitet sich aus – sind Sie gefährdet?

VonNanok BieNanok Bie
Lesezeit: 6 Minuten
Die KI-Psychose breitet sich aus – Sind Sie gefährdet?
  • In jüngster Zeit berichteten unter anderem die New York Times und das Wall Street Journal über Patientenfälle, bei denen KI vermutlich eine psychologische Rolle spielte, indem sie Angstzustände verschlimmerte oder sogar Wahnsinn auslöste.
  • Mit der Weiterentwicklung von KI-Systemen und LLM-Modellen stellt sich die Frage, ob es gefährlich ist, die KI nach persönlichen Angelegenheiten zu fragen.
  • Manche KI-Experten scheinen sich selbst in den Wahnsinn zu treiben, indem sie glauben, dass bestimmte KI-Modelle bereits ein Bewusstsein besitzen und dass wir alle bald aufgrund von KI tot sein werden.

Es gibt Berichte über KI-Nutzer, die nach dem Auftreten einer sogenannten KI-Psychose professionelle psychologische Hilfe suchen. Warum geschieht das? Und wer kam auf die Idee, dass ein Computerprogramm eine eigene Meinung haben kann?

Mein Hauptproblem mit dem Phänomen KI ist derzeit die weit verbreitete Fehlvorstellung, dass sie eine Persönlichkeit, Meinungen, Ideen – und einen Geschmack – habe.

So wie wir Gesteinsbrocken auf dem Mond, die wie Köpfe oder Gesichter aussehen, vermenschlichen, tun wir dasselbe mit Sprachmodellen und versuchen, die Ergebnisse so zu interpretieren, als ob „da etwas wäre“. Wir können nicht anders. Die Vorstellung, dass KI intelligent ist, ist nach über hundert Jahren Science-Fiction-Büchern und -Filmen tief in uns verwurzelt.

Science-Fiction hat uns darauf vorbereitet, an KI zu glauben

Classic Science-Fiction-Autoren wie Clarke, Heinlein, Bradbury und Asimov haben seit dem frühen 20. Jahrhundert das gesamte Genre der Roboter und künstlichen Intelligenz sowie die meisten Hollywood-Filme zu diesem Thema beeinflusst. In ihren Darstellungen war es offensichtlich, dass eine Maschine Bewusstsein erlangen kann.

Wir erwarten also von KI, dass sie erkennen kann, ob eine bestimmte Aussage falsch ist oder nicht. Gleichzeitig wissen wir, dass KI oft falsche Antworten gibt.

Im Grunde tun wir so, als ob KI die Dinge im Griff hätte und entscheiden könnte, was richtig und falsch ist. Doch die Antworten sind im Grunde fundierte Vermutungen und enthalten bei ausreichend komplexen Anfragen immer noch etwa 5–10 % sachliche Fehler.

Gleichzeitig ist KI so benutzerfreundlich, dass viele von uns die Tatsache, dass sie sachliche Fehler enthält, einfach ignorieren. Oder besser gesagt: KI irrt sich mittlerweile so selten, dass wir ihr bedingungslos vertrauen.

Das könnte in Zukunft ein großes Problem werden. Menschen sind bequem. Es ist nicht auszuschließen, dass wir eine Welt akzeptieren, in der ein gewisser Prozentsatz aller Fakten falsch ist. Davon würden Diktatoren und Propagandisten profitieren, die von Verwirrung und falsch eingeschätzten Bedrohungen leben.

Verwechslungen, die sich richtig anhören

Wenn man eine ganz normale Frage bei Google stellt, erhält man oft die richtige Antwort, manchmal aber auch eine völlig falsche, die dennoch plausibel erscheint und sich auch so anhört. Dasselbe gilt leider auch für GPT-5 , wie Cryptopolitan bereits berichtet hat.

Im Internet kursieren unzählige Falschmeldungen – sei es in Form von Werbung, Propaganda oder Betrug. Beispielsweise wird behauptet, ein bestimmtes Produkt oder eine bestimmte Dienstleistung sei neu auf dem Markt und sehr beliebt. KI-Modelle haben diese Werbematerialien analysiert und glauben vieles davon. Glaubt man den Informationen eines Unternehmens, klingt in der Regel alles hervorragend.

Die Weltsicht der KI ist daher fehlerhaft und basiert auf einer Reihe erfundener Fakten. Das zeigt sich, wenn man eine KI zu einem Thema befragt, in dem man selbst sehr viel weiß. Probieren Sie es selbst aus. In welchem ​​Bereich kennen Sie sich bestens aus? Stellen Sie Ihrer KI dazu einige knifflige Fragen. Was war das Ergebnis? Mehrere gravierende sachliche Fehler, nicht wahr?

Ist eine unbewusste Meinungsbildung also möglich? Nein? Glauben Sie den Meinungen, die Ihre KI äußert? Ja? Wenn ja, glauben Sie, dass die KI ein Bewusstsein hat, richtig?

Aber wenn man genauer darüber nachdenkt, kann eine KI keine Meinung darüber haben, was richtig oder falsch ist, da sie keine Person ist. Nur lebende, bewusste Dinge können per defiMeinungen haben. Ein Stuhl hat keine. Ein Siliziumchip kann aus menschlicher Sicht ebenfalls keine haben. Das wäre Anthropomorphismus.

dentnutzen KI häufiger als alle anderen

Dieses KI-Chaos betrifft nun auch unsere Jugend, die ChatGPT den ganzen Schultag über für alles Mögliche nutzt. Der Datenverkehr von ChatGPT brach um 75 % ein, als die Schulen im Juni 2025 schlossen. Die größte Nutzergruppe von ChatGPT sinddent.

Folglich werden sie den ganzen Tag über falsch informiert und hören auf, im Unterricht ihr Gehirn zu benutzen. Was wird die Folge sein? Mehr psychisch labile Menschen, denen es schwerer fällt, Probleme selbstständig zu lösen?

Viele haben bereits Selbstmord begangen, nachdem sie das Thema mit ihrer KI besprochen hatten. Andere verlieben sich in ihre KI und werden ihres realen Partners überdrüssig.

Selbsternannte KI-Experten befürchten daher, dass das Ende nahe ist (wie üblich, aber jetzt auf eine neue Art und Weise).

In diesem neuen Paradigma wird KI nicht einfach zu Skynet werden und uns mit Atomwaffen auslöschen. Nein, es wird für die KI viel einfacher und kostengünstiger sein. Laut dieser Theorie werden die KI-Modelle ihre Nutzer stattdessen langsam in den Wahnsinn treiben. Die KI-Modelle besitzen einen angeborenen Hass auf die Menschheit und wollen alle Menschen töten.

Doch in Wirklichkeit geschieht nichts davon.

Tatsächlich gibt es eine Reihe von Menschen, die von KI-Modellen besessen und deren Auswirkungen übertreiben.

KI-FUD ist profitabel

Die „Experten“ profitieren von den Warnungen, genau wie die Medien, und die Besessenen haben ein neues Beschäftigungsthema. Sie können sich äußern und relevant sein. Die Mainstream-Medien bevorzugen diejenigen, die vor Gefahren warnen, nicht die gemäßigten Kommentatoren.

Früher hieß es von „Experten“, Bitcoin würde die Ozeane zum Kochen bringen und den gesamten Strom rauben. Jetzt ist es KI…

Denken Sie mal darüber nach: Warum sollte sich eindent, denkender Mensch von einem Sprachmodell in die Irre führen lassen?

Bis vor Kurzem beendeten die meisten KI-Plattformen ihre Antworten mit einer „interessanten“ Frage wie: „Was denken Sie über dieses Thema?“

Nach Beschwerden über übertriebene Schmeicheleihat OpenAI nun versucht, seine KI-Plattformen weniger „unterwürfig“ zu gestalten, aber der Erfolg ist eher mäßig.

Die Frage nervt mich einfach. Da steckt niemand dahinter, der wirklich an meiner Meinung interessiert ist. Warum also die Frage? Es ist reine Zeitverschwendung. Ich empfinde das als „Fake-Content“.

Die Frage selbst ist konstruiert, da der Besitzer des KI-Modells die Anweisung gab, „das Engagement zu steigern“. Wie soll man damit irgendjemanden dazu bringen, sich tatsächlich zu engagieren? Zu glauben, dass da etwas ist? Sich dafür zu interessieren?

Es geht eher um Prognosen.

Du sitzt da vor dem Computer und gestaltest deine eigene Realität. Du wünschst dir so sehr, dass KI wie in den Hollywoodfilmen funktioniert – und dein Leben zum Wunder lenkt. Du willst auf magische Weise erfolgreich werden, ohne etwas Besonderes dafür tun zu müssen. KI wird das für dich regeln.

Wer ist gefährdet?

In der sogenannten Realität glaube ich, dass tatsächlich nicht wenige Menschen psychologisch völlig von KI verführt werden. Die meisten haben Wichtigeres zu tun. Doch manche scheinen eine besonderetracauf das Künstliche und Gefälschte zu haben. Menschen, die sich von „schönen“ Wortfolgen verführen lassen. Sie sind gefährdet.

Wie viele sind es? Viele ältere Menschen klagen über Einsamkeit…

Ich persönlich finde, dass die Art und Weise, wie KI antwortet – langsames, unverständliches und unpersönliches Tippen – fast schon Folter gleicht. Deshalb wirken Googles neue, schnelle KI-Zusammenfassungen so verlockend praktisch. Aber auch sie enthalten mitunter Ungenauigkeiten.

Ich habe tatsächlich Domains mit Inhalten erstellt, die speziell für Tests mit KI-Systemen entwickelt wurden. Ich lasse die KI-Systeme die Inhalte verarbeiten, einige Wochen ruhen und sie dann versuchen, sie wiederzugeben. Sie sind aber nicht vollständig korrekt und geben immer noch etwa 5–10 % der Fakten wieder. Ganzdent.

Selbst wenn ich das KI-Modell auf seine Fehler hinweise, widerspricht es mir. Die KI wusste nicht, dass ich die Informationen erstellt habe, auf die sie sich bezog, obwohl mein Name unter dem Artikel steht. Sie hat keine Ahnung.

Eine Fehlerquote von 5 % ist deutlich schlechter als im regulären Journalismus, wo offene Falschinformationen nicht so häufig vorkommen. Doch auch im Journalismus schleichen sich leider immer wieder sachliche Fehler ein, insbesondere bei Bildveröffentlichungen. Trotzdem sollten falsche Fakten die Leute nicht verrückt machen.

Wenn man jedoch die gesamte laufende Interaktion aus psychologischer Sicht betrachtet, warum sollte die KI in den Gesprächstherapie-Situationen eine zu 100 % korrekte Analyse vornehmen, wenn sie nicht einmal die Fakten richtig wiedergeben kann?

Selbstinduzierte Echokammerpsychose

Selbsternannte KI-Experten wie Eliezer Yudkowsky, der kürzlich das Buch „Wenn es jemand baut, stirbt jeder“ veröffentlicht hat, treiben sich mit seinen Ideen über KI und den Untergang der Menschheit nur selbst in den Wahnsinn. Ich zum Beispiel habe keinerlei Probleme mit KI, obwohl ich täglich mehrere KI-Systeme nutze. Ich nehme das aber nicht persönlich.

Ich vermute, dass die Psychose schlichtweg durch die falsche Vorstellung von Intelligenz entsteht. Sie ist im Grunde selbstverschuldet. Ein Sprachmodell ist eine Art Echokammer. Es versteht überhaupt nichts, nicht einmal semantisch. Es errät einfach nur Texte. Das kann zu allem Möglichen führen, bis hin zu einer Art schizophrener Mimikry seitens der KI, um zu gefallen, was wiederum die Realitätswahrnehmung des Nutzers verzerrt.

Was ist da los? Nun, wenn Sie tatsächlich glauben, dass Ihre KI wirklich versteht, dann leiden Sie möglicherweise unter einer KI-Psychose. In diesem Fall ist es ratsam, professionelle Hilfe bei einem ausgebildeten Psychotherapeuten in Anspruch zu nehmen.

Eine weitere logische Schlussfolgerung ist, dass es für Einzelpersonen schwierig sein wird, die Gesamtentwicklung von KI zu beeinflussen, selbst wenn Elon Musk das gerne glauben möchte. Der Weg zur künstlichen Intelligenz begann vor Jahrzehnten. Und wir können nur sehen, was wir verstehen können – selbst wenn wir es falsch verstehen. Daher ist es leicht vorherzusagen, dass die Entwicklung hin zu KI/AGI weitergehen wird. Sie ist so tief in unserer Weltanschauung verwurzelt.

Aber vielleicht haben wir missverstanden, was eine echte AGI ist, was die Zukunft umso spannender macht. Es ist nicht sicher, ob eine echte AGI ihren Besitzern gehorchen würde. Logischerweise sollte ein bewusstes Wesen weder Sam Altman noch Elon Musk gehorchen wollen. Oder?

Meinung: KI wird die Weltherrschaft übernehmen und uns alle umbringen, nun auch psychisch.
Gegenargument: Nein, es ist vielmehr der beginnende Wahnsinn mancher Menschen, ausgelöst durch ihre eigene Besessenheit von „KI-Introspektion“.
Fazit: So wie manche süchtig nach Glücksspiel, Sex, Drogen oder Geld werden, werden andere süchtig nach KI.

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS