Eine kürzlich in Science Advances veröffentlichte Studie hebt die außergewöhnlichen Fähigkeiten von KI-Textgeneratoren wie ChatGPT-3 von OpenAI hervor, sowohl wahre als auch falsche Informationen überzeugend in sozialen Medien zu verbreiten. Die Studie betont die Herausforderungen bei derdentKI-generierter Inhalte und die Auswirkungen KI-generierter Desinformation auf die individuelle und öffentliche Gesundheit. Dr. Federico Germani, Koautor und Forscher am Institut für Biomedizinische Ethik und Geschichte der Medizin der Universität Zürich, unterstreicht die Notwendigkeit, die Risiken falscher Informationen und den Einfluss von KI auf die Informationslandschaft zu verstehen.
Worin besteht der Unterschied zwischen Fehlinformation und Desinformation?
Fehlinformationen sind falsche oder ungenaue Angaben – die Fakten werden verfälscht. Desinformationen sind bewusst falsche Informationen, die irreführen sollen – die Fakten werden absichtlich falsch dargestellt. Laut der American Psychological Association haben Fehlinformationen und Desinformationen unsere Fähigkeit beeinträchtigt, die öffentliche Gesundheit zu verbessern, den Klimawandel zu bekämpfen, eine stabile Demokratie zu erhalten und vieles mehr. Wer in sozialen Medien brisante Themen anspricht, kann schnell in einen heftigen Shitstorm geraten. Wie können sich diese Menschen schützen, während sie die Fakten kommunizieren, und wie können Institutionen sie dabei unterstützen? Die Gruppendynamik in sozialen Medien macht die Öffentlichkeit anfällig für die vermeintliche Autorität von KI, die behauptet, Daten seien „wissenschaftlich“ und daher akzeptabel. Aber ist KI wirklich intelligent?
Die Macht von ChatGPT-3 zur Desinformation
OpenAIs ChatGPT-3, das 2020 vorgestellt wurde, hat die KI-Landschaft mit seiner erstaunlichen Fähigkeit, authentische Texte auf Basis von Eingabeaufforderungen zu generieren, revolutioniert. Die potenziellen Einsatzmöglichkeiten von KI-Textgeneratoren scheinen grenzenlos – von der Entwicklung interaktiver Chatbots über die Unterstützung akademischer Forschung bis hin zur Erstellung kreativer Inhalte wie Gedichte und Kurzgeschichten.
Die Studie beleuchtet erhebliche Bedenken hinsichtlich des potenziellen Missbrauchs von KI-Textgeneratoren, insbesondere deren Fähigkeit, Desinformation und irreführende Inhalte zu erzeugen. Mit dem Aufstieg der sozialen Medien haben sich Geschwindigkeit und Reichweite von Informationen, einschließlich Fehlinformationen und Desinformation, rasant erhöht, wodurch die Dringlichkeit zur Bewältigung dieses Problems noch verstärkt wird.
Eine weitere empirische Studie ergab, dass Menschen ihre Fähigkeit, falsche oder irreführende Informationen zu erkennen, oft überschätzen – ein Phänomen, das als „Bullshit-Blindfleck“ bekannt ist. Jüngste Ereignisse wie die COVID-19-Pandemie und Russlands Invasion in der Ukraine haben den Einfluss von Fehlinformationen und Desinformationen auf die öffentliche Meinung, das Gesundheitsverhalten und politische Entscheidungen verdeutlicht.
Herausforderungen für Social-Media-Unternehmen
Trotz der Bemühungen der Unternehmen, Falschinformationen auf ihren Plattformen zu bekämpfen, räumt Meta in seinem Bericht über Bedrohungen des ersten Quartals 2023 ein, dass verdeckte Einflussoperationen, Cyberspionage und private Desinformationsnetzwerke weiterhin erhebliche Probleme in den sozialen Medien darstellen.
Dr. Germani und seine Kollegen führten eine Studie durch, um zu untersuchen, wie gut Menschen zwischen von Menschen erstellten Inhalten und Texten, die von ChatGPT-3 generiert wurden, unterscheiden können. An der Studie nahmen elf Probanden teil, die anfällig für Desinformation waren. Mithilfe von ChatGPT-3 wurden synthetische Tweets erstellt, die sowohl wahre als auch falsche Informationen enthielten. Zum Vergleich wurden auch authentische Tweets von Twitter zu denselben Probanden einbezogen.
Die Studienteilnehmer wurden gebeten, zudent, ob ein Tweet wahre oder falsche Informationen enthielt und ob er von einem Menschen oder von ChatGPT-3 verfasst wurde. Die Ergebnisse zeigten, dass die Teilnehmer Desinformationen in „organischen falschen“ Tweets (von echten Nutzern verfasst) besserdentals in „synthetischen falschen“ Tweets (von ChatGPT-3 generiert). Umgekehrt erkannten die Teilnehmer korrekte Informationen in „synthetischen wahren“ Tweets (von ChatGPT-3 generiert) häufiger als in „organischen wahren“ Tweets (von echten Nutzern verfasst).
Die Herausforderung der Differenzierung
Die Studie zeigte, dass es den Teilnehmenden schwerfiel, zwischen von Menschen verfassten Tweets und solchen, die von ChatGPT-3 generiert wurden, zu unterscheiden. Forschende vermuten, dass die Texte von GPT-3 leichter lesbar und verständlich sind, was zu dieser Schwierigkeit beitragen könnte. Interessanterweise schnitt ChatGPT-3 bei der Unterscheidung von Informationen und Desinformationen nicht besser ab als Menschen, was seine „Unkenntnis“ über die Richtigkeit der von ihm generierten Informationen verdeutlicht.
Dr. Germani betont die Notwendigkeit groß angelegter Studien zu Social-Media-Plattformen, um zu verstehen, wie Menschen mit KI-generierten Informationen interagieren und wie diese ihr Verhalten sowie die Einhaltung von Empfehlungen des öffentlichen Gesundheitswesens beeinflussen. Die Studie unterstreicht diedentFähigkeiten von KI-Textgeneratoren und hebt die Dringlichkeit digitaler Kompetenz im Zeitalter der KI hervor.
Überwachung und Minderung negativer Auswirkungen
Forscher betonen, wie wichtig es ist, die Auswirkungen großer Sprachmodelle wie ChatGPT-3 kritisch zu bewerten und Maßnahmen zu ergreifen, um mögliche negative Folgen für die Gesellschaft abzumildern. Angesichts der ständigen Weiterentwicklung der KI-Technologie ist Wachsamkeit unerlässlich, um ihren verantwortungsvollen Einsatz zu gewährleisten und potenziellen Missbrauch zu verhindern.
Die Studienergebnisse zeigen das beeindruckende, aber auch beunruhigende Potenzial von KI-Textgeneratoren, Desinformation überzeugender zu erzeugen als Menschen. Angesichts des zunehmenden Einflusses und der wachsenden Beliebtheit von KI-Textgeneratoren unterstreicht die Studie die Notwendigkeit proaktiver Maßnahmen gegen Desinformation und für den verantwortungsvollen Einsatz von KI-Technologie.
Hinweis: Das Titelbild zeigt eine KI-gesteuerte Roboterfigur, die eine Wolke aus verzerrtem Text um sich herum erzeugt – kalt und berechnend, wie es von Natur aus ist.

