Während sich die Welt auf eine Welle nationaler Wahlen im Jahr 2024 vorbereitet, wachsen die Bedenken hinsichtlich der Rolle künstlicher Intelligenz (KI) bei der Gestaltung des Wahlprozesses. Soziale Medien, einst unverzichtbare Instrumente zur Wählerbeteiligung, stehen wegen ihrer nachlassenden Bemühungen zur Inhaltsmoderation in der Kritik, wodurch Fehlinformationen und Hassrede ungehindert verbreitet werden können. Darüber hinaus wirft die Entwicklung KI-gestützter generativer Tools neue Fragen hinsichtlich der Verbreitung realistischer Deepfakes und gezielter Desinformationskampagnen auf.
Verminderte Inhaltsmoderation
Große Social-Media-Plattformen wie Twitter (jetzt X) und Meta (Eigentümer von Facebook, Instagram und WhatsApp) haben seit Ende 2022 einen Rückgang bei den Inhaltsmoderatoren verzeichnet. Diese Personalreduzierung, die teilweise auf Umstrukturierungen zurückzuführen ist, wirft Fragen hinsichtlich ihrer Vorbereitung auf die bevorstehenden Wahlen auf. Falschinformationen und Hassrede breiten sich in Wahlkampfzeiten besonders gut aus und stellen weltweit eine erhebliche Bedrohung für demokratische Prozesse dar.
Kaleidoskop der Ungewissheit
Katie Harbath, Expertin für Wahlintegrität, vergleicht die Herausforderungen im Kampf gegen wahlbezogene Desinformation mit einem Kaleidoskop und betont damit die komplexe und sich ständig verändernde Natur des Problems. Obwohl Social-Media-Unternehmen beteuern, sich für Wahlintegrität einzusetzen, zeichnet die Ressourcenverteilung ein anderes Bild. Viele glauben, dass diese Plattformen westliche Demokratien bevorzugen und andere vernachlässigen.
Die Rolle der KI bei Fehlinformationen
Die Rolle von KI bei der Verbreitung von Desinformation beschränkt sich nicht nur auf textbasierte Inhalte. Generative KI-Tools, die Bilder, Audio- und Videodateien erzeugen können, bergen das Potenzial, die Verbreitung täuschend echter Deepfakes zu befeuern. Diese Technologie erleichtert es Akteuren mit böswilligen Absichten, Desinformationen gezielt auf bestimmte Zielgruppen zuzuschneiden und deren Schwächen und Überzeugungen auszunutzen.
Leitplanken und Vorschriften
Um diesen Herausforderungen zu begegnen, wurden verschiedene Initiativen ins Leben gerufen. Meta, TikTok, Microsoft und YouTube haben Offenlegungspflichten für Content-Ersteller und politische Werbetreibende eingeführt, die KI-generierte Inhalte nutzen. Auch Regierungen und internationale Organisationen haben mit regulatorischen Rahmenbedingungen reagiert, darunter die Exekutivverordnung der Biden-Administration zu KI, der KI-Sicherheitsgipfel in Großbritannien, der KI-Beratungsausschuss der Vereinten Nationen und die KI-Richtlinie der Europäischen Union, die voraussichtlich 2025 in Kraft treten wird.
Vorsichtiger Optimismus
Alondra Nelson, eine prominente Persönlichkeit im Bereich der KI-Regulierung, äußert sich vorsichtig optimistisch zu diesen Initiativen. Sie merkt an, dass zwar Fortschritte erzielt werden, diese aber noch in den Anfängen stecken. Politik, Wirtschaft und Zivilgesellschaft stehen vor der Herausforderung, einen Konsens darüber zu erzielen, was schädliche KI-generierte Inhalte ausmacht und wie diese wirksam reguliert werden können.
Die bevorstehenden Wahlen 2024 in über 50 Ländern, darunter bedeutende Demokratien wie die USA und Indien, unterstreichen die Dringlichkeit, den Einfluss von KI auf Wahlprozesse anzugehen. Die abnehmende Inhaltsmoderation auf Social-Media-Plattformen und die zunehmende Verbreitung KI-gestützter Tools stellen die Integrität von Wahlen vor erhebliche Herausforderungen. Zwar laufen regulatorische Bemühungen, doch ob diese mit der rasanten Entwicklung KI-gestützter Desinformation Schritt halten können, bleibt abzuwarten. Während die Welt gespannt zusieht, verändert sich die Lage immer weiter und die Zukunft der Wahlsicherheit steht auf dem Spiel.

