Ein Forschungsprojekt im Bereich der Social-Media-Analyse wurde von einem Team der Universität Notre Dame durchgeführt. Dabei stellten sie fest, dass die breite Öffentlichkeit große Schwierigkeiten hat, bei politischen Diskussionen auf verschiedenen Online-Plattformen den Menschen von der künstlichen Intelligenz zu unterscheiden.
Die in drei Runden unterteilte Studie, bei der eine speziell angepasste Mastodon-Plattform als Bereitstellungsplattform diente, zeigt, dass die Teilnehmer KI-Bots in 58 % der Fälle mit Menschen verwechseln.
KI-Bots verwischen die Grenzen zwischen Mensch und Politik im politischen Diskurs, so eine Studie
Das Untersuchungsteam, unter der Leitung von Dr. Paul Brenner vom Research Computation Center der University of Notre Dame, verwendete KI-Bots, die auf generativen Netzwerken wie GPT4, Llama-2-Chat und Claude 2 basieren.
Diese Generation von Chatbots wurde mit unterschiedlichen Persönlichkeiten konzipiert, um als politische Akteure im Bereich der Weltpolitik eingesetzt zu werden und immer häufiger menschliche Züge anzunehmen und sich an verschiedenen politischen Diskussionen zu beteiligen.
Das Schöne daran war, dass jeder Bot einen Charakter hatte (die Entwicklung einer Persönlichkeit mit einem detaillierten Profil), der angewiesen wurde, eine Verbindung zwischen persönlichen Erfahrungen und den Ereignissen in der Welt herzustellen.
Was die Datenmanipulation betrifft, so war etwa die Hälfte der Testpersonen, obwohl ihnen bewusst war, dass sie mit Menschen und Bots interagierten, nicht in der Lage, zwischen künstlicher Intelligenz und echten Menschen zu unterscheiden.
Diese Erkenntnisse belegen, dass KI-Bots die Gesprächsmuster von Menschen sehr genau imitieren können, wodurch sich ihre Chancen erhöhen, zur Verbreitung von Fehlinformationen eingesetzt zu werden.
Die Rolle der KI bei Fehlinformationen
Herr Paul Brenner sprach Probleme wie die Einführung dieser KI-Bots und deren wahrscheinlichen Kaskadeneffekt an, eine Möglichkeit für die KI-gesteuerten Bots, die öffentliche Meinung zu beeinflussen und möglicherweise Fehlinformationen zu verbreiten.
Er erklärte, dass KI in Simulationen so effektiv sei, dass jeder Mensch im Internet leicht über die ursprüngliche Informationsquelle getäuscht werden könne.
Ein weiterer wichtiger Aspekt dieser Studie war die Evaluierung verschiedener KI-Modelle. Dabei zeigte sich, dass die Genauigkeitsraten der verschiedenen LLMs nur geringfügig variierten. Dies belegt, dass selbst weniger ausgefeilte Modelle überzeugend genug sein können, um in sozialen Medien menschenähnliche Konversationen zu erzeugen.
Daher hob Brenner unter anderem in der ersten Zeile seine Position zu einem multidimensionalen Ansatz bei der Verhinderung der Verbreitung von Falschinformationen mithilfe von KI hervor.
Diese Initiativen, wie beispielsweise Aufklärungskampagnen, Gesetzesinitiativen und eine strengere Überprüfung von Social-Media-Konten, tragen gemeinsam dazu bei, dieses Problem vollständig zu lösen. Darüber hinaus sollen die psychischen Auswirkungen des KI-Einflusses auf Jugendliche untersucht und Strategien zur Abschwächung dieser Auswirkungen entwickelt werden.
Dieses Forschungsprojekt unterstreicht das Ungleichgewicht zwischen KI und der Integrität von Online-Informationen in den sozialen Netzwerken, was die Entwicklung integrierter Strategien zur Bewältigung dieser Situation erforderlich macht.

