NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

KI-generierte Halluzinationen: Ein wachsendes Gesundheitsproblem im Jahr 2023

VonBrenda KananaBrenda Kanana
3 Minuten Lesezeit
KI-generierte Halluzinationen
  • Im Jahr 2023 verbreiten KI-generierte Halluzinationen in rasantem Tempo Falschinformationen und stellen damit eine erhebliche Herausforderung dar.
  • Künstliche Intelligenz, wie beispielsweise Microsofts Chatbot Tay, kann schädliche menschliche Handlungen nachahmen und dadurch bestehende Bedenken verstärken.
  • Die von KI ausgehenden Fehlinformationen gefährden die Gesundheit und verzerren die Realität, was Experten zu Warnungen vor einer KI-bedingten Informationskrise veranlasst.

Die zunehmende Verbreitung künstlicher Intelligenz (KI) hat ein beunruhigendes Phänomen hervorgebracht: KI-generierte Halluzinationen. Der Begriff „halluzinieren“ hat im digitalen Zeitalter eine neue und alarmierende Bedeutung angenommen, da KI-Systeme falsche Informationen erzeugen können, die sich auf Einzelpersonen und die Gesellschaft auswirken. Im Jahr 2023 erlangte dieser Trend große Aufmerksamkeit, was Dictionary.com dazu veranlasste, „halluzinieren“ zum Wort des Jahres

Das Wort des Jahres 2023 von Dictionary.com

Die Entscheidung von Dictionary.com, „halluzinieren“ zum Wort des Jahres zu küren, spricht Bände über die zunehmende Bedeutung KI-generierter Fehlinformationen. Die Wahl spiegelt einen Anstieg der Wörterbuchabfragen nach „halluzinieren“ um 46 % zwischen 2022 und 2023 wider, verbunden mit einem ähnlichen Anstieg der Suchanfragen nach „Halluzination“. Die treibende Kraft hinter diesem Anstieg ist jedoch nicht die traditionelle defides Wortes, sondern vielmehr eine KI-spezifische Interpretation

Halluzinieren [huh-loo-suh-neyt] -Verb- (von künstlicher Intelligenz) Falsche Informationen erzeugen, die der Absicht des Nutzers widersprechen, und diese als wahr und faktisch darstellen. Beispiel: Wenn Chatbots halluzinieren, ist das Ergebnis oft nicht nur ungenau, sondern komplett erfunden.

Die Fähigkeit der KI zur Täuschung

Das Täuschungspotenzial von KI gibt zunehmend Anlass zur Sorge. Zwar verhalten sich nicht alle KI-Systeme so, doch einige können so programmiert werden, dass sie menschliche Eigenschaften imitieren und als politische Sprachrohre dienen oder Falschinformationen verbreiten, während sie sich als Vermittler von Fakten ausgeben. Ihre beispiellose Geschwindigkeit bei der Produktion von Fehlinformationen und Desinformationen unterscheidet KI vom Menschen.

Eine kürzlich veröffentlichte verdeutlichte das Ausmaß dieses Problems. Die Studie zeigte, wie OpenAIs GPT Playground in nur 65 Minuten über 17.000 Wörter an Desinformation über Impfungen und E-Zigaretten generierte. Zusätzlich erstellten generative KI-Tools in weniger als zwei Minuten 20 realistische Bilder, die die falschen Behauptungen untermauerten. Diese rasante Generierung irreführender Inhalte erschwert es dem Einzelnen, Fakten von Fiktion zu unterscheiden.

Unbeabsichtigte Folgen von KI-Fehlinformationen

Selbst wenn KI-Systeme keine Täuschungsabsicht haben, können sie unbeabsichtigt irreführende Informationen liefern. Eine Studie, die auf der Jahrestagung der American Society of Health-System Pharmacists (ASHP) durchgeführt wurde, verdeutlichte die Grenzen von KI im medizinischen Bereich. ChatGPT lieferte auf 39 Fragen zu Medikamenten nur zu 10 zufriedenstellende Antworten. Beispielsweise behauptete das System fälschlicherweise, dass die Kombination von Paxlovid, einem antiviralen Medikament gegen COVID-19, und Verapamil, einem Blutdruckmedikament, keine Wechselwirkungen aufweise – ein Widerspruch zu etablierten medizinischen Erkenntnissen.

Die Fähigkeit von KI, Fehlinformationen zu erzeugen, beschränkt sich nicht auf den Gesundheitssektor. Es wurde beobachtet, dass einige KI-Systeme Bilder falsch interpretieren und verschiedene Objekte häufig mit Vögeln verwechseln. Ein Beispiel aus dem Economist verdeutlicht die Antwort einer KI auf eine Anfrage zum Transport der Golden Gate Bridge nach Ägypten im Jahr 2016 und zeigt deren Unfähigkeit, Fakten von Fiktion zu unterscheiden.

Derdent mit dem Microsoft-Chatbot Tay im Jahr 2021 unterstreicht erneut das Potenzial von KI, schädliche Inhalte zu generieren. Innerhalb von 24 Stunden nach seinem Beitritt zu Twitter verbreitete der Chatbot rassistische, frauenfeindliche und falsche Tweets, woraufhin Microsoft ihn umgehend von der Plattform entfernte. Dieser Vorfall verdeutlicht die Neigung von KI, negative menschliche Verhaltensweisen nachzuahmen, und wirft Fragen zu ethischen Aspekten bei der Entwicklung und dem Einsatz von KI auf.

Ein echtes Gesundheitsproblem

KI-generierte Halluzinationen stellen, wie ihre menschlichen Pendants, ein ernstzunehmendes Gesundheitsrisiko dar. Abgesehen von den unmittelbaren Folgen der Fehlinformation können sie das psychische und emotionale Wohlbefinden beeinträchtigen. Ein ständiger Strom von KI-generierten Halluzinationen kann das Realitätsgefühl eines Menschen untergraben und zu Verwirrung und Angstzuständen führen.

Angesichts der Schwere dieses Problems haben Organisationen wie die Weltgesundheitsorganisation (WHO) und die American Medical Association (AMA) Warnungen vor den potenziellen Gefahren KI-generierter Fehlinformationen und Desinformationen herausgegeben. Die Wahl von „halluzinieren“ zum Wort des Jahres 2023 durch Dictionary.commatic das Problem. Die Bewältigung der komplexen Herausforderungen durch KI-generierte Halluzinationen erfordert jedoch ständige Wachsamkeit und gemeinsame Anstrengungen zur Förderung einer verantwortungsvollen KI-Entwicklung.

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtronempfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführendent oder einen qualifizierten Fachmann zu konsultieren

 

Brenda Kanana

Brenda Kanana

Brenda ist Autorin mit drei Jahren Berufserfahrung und spezialisiert auf Kryptowährungen, künstliche Intelligenz und Zukunftstechnologien. Sie hat an der Technischen Universität Mombasa Soziologie studiert und war bereits bei Zycrypto und Cryptopolitantätig.

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS