Nach dem Sturz von Nicolás Maduro kursierten im Internet massenhaft KI-generierte Videos, die inszenierte Feierlichkeiten in Venezuela zeigen.
Diese mithilfe künstlicher Intelligenz erstellten Clips zeigen große Menschenmengen, die jubeln, Fahnen schwenken unddent Donald Trump und dem US-Militär danken. Das Problem ist jedoch, dass nichts davon tatsächlich passiert ist.
Einer der ersten und viralsten Clips wurde von einem X-Account namens Wall Street Apes gepostet, der über 1 Million Follower hat. Er zeigt venezolanische Bürger, die weinen, sich umarmen und die USA dafür loben, dass sie Maduro gestürzt haben.
Der Beitrag wurde von der Community gemeldet, allerdings erst nachdem er 38.000 Mal geteilt und 5,6 Millionen Mal angesehen worden war. Er landete sogar in Elon Musks Feed, bevor der Nutzer ihn löschte. Die Meldung enthielt folgende Warnung:
„Dieses Video wurde von einer KI generiert und wird derzeit als Tatsachenbehauptung präsentiert, um die Öffentlichkeit irrezuführen.“
KI-Plattformen helfen bei der Verbreitung gefälschter Videos über Venezuela
Faktenchecker der BBC und AFP konnten das Originalvideo zu einem TikTok-Account namens @curiousmindusa trac, der regelmäßig KI-generierte Clips veröffentlicht.
Obwohl wir die genaue Quelle nicht finden konnten, bestätigten beide Redaktionen, dass dies die früheste Version war. Der Clip erschien nach einer größeren Militäroperation am 3. Januar, bei der US-Streitkräfte Luftangriffe und eine Bodenoffensive durchführten, die zur Verhaftung Maduros führten.
Bilder von ihm in Haft kursierten bereits im Internet, bevor die Regierung überhaupt ein offizielles Bild veröffentlichte, und auch diese ersten Bilder waren allesamt gefälscht.
Die AFP wies zudem auf weitere irreführende Inhalte hin. Ein Clip, der wie eine Straßenparty in Caracas aussah, entpuppte sich als altes Video aus Chile, nachdem es fälschlicherweise als Video von Venezolanern verbreitet worden war, die auf den Straßen feierten.
Es ist nicht das erste Mal, dass KI eingesetzt wurde, um die Realität bei aktuellen Ereignissen zu verzerren, und es wird definicht das letzte Mal sein. Ähnliche Muster zeigten sich sowohl im russisch-ukrainischen als auch im israelisch-palästinensischen Konflikt. Doch die schiere Geschwindigkeit und der Realismus der Fälschungen aus Venezuela unterscheiden sie diesmal von den vorherigen Fällen.
Plattformen wie Sora und Midjourney machen es lächerlich einfach, innerhalb von Minuten gefälschte Videos zu erstellen, und die Leute fallen immer wieder darauf herein.
Soziale Plattformen haben Schwierigkeiten, mit gefälschten Inhalten Schritt zu halten
Die Urheber solcher Clips versuchen oft, bestimmte politische Narrative zu verbreiten oder einfach nur online Chaos zu stiften. Und es funktioniert. Letztes Jahr zeigte ein KI-generiertes Video, wie vermeintliche Frauen weinten, weil sie während eines Regierungsstillstands in den USA ihre Lebensmittelhilfe verloren hatten. Fox News strahlte diesen Clip als echt aus, bis er entfernt werden musste.
All dies hat zu verstärkten Forderungen nach einer klareren Kennzeichnung KI-generierter Inhalte durch soziale Plattformen geführt. Indien hat sogar ein Gesetz vorgeschlagen , das die Kennzeichnung von KI-Inhalten vorschreibt, und Spanien hat Geldstrafen in Höhe von 35 Millionen Euro für nicht gekennzeichnete Inhalte verhängt.
Einige Plattformen versuchen aufzuholen. TikTok und Meta geben an, Tools zur Erkennung und Kennzeichnung von KI-Videos entwickelt zu haben. CNBC fand einige gefälschte Venezuela-Clips auf TikTok, die korrekt gekennzeichnet waren. Die Ergebnisse sind jedoch uneinheitlich.
X hingegen setzt hauptsächlich auf sein Community-Notizsystem. Kritiker bemängeln, dass es nicht schnell genug reagiert. Bis die KI-Warnung erscheint, haben Millionen von Menschen die Inhalte bereits angesehen und geteilt.
Sogar die Chefs der Plattformen schlagen Alarm. Adam Mosseri, der Instagram und Threads leitet, schrieb: „Alle großen Plattformen werden gute Arbeit leisten, um KI-Inhalte zudent, aber sie werden im Laufe der Zeit schlechter darin werden, da die KI immer besser darin wird, die Realität zu imitieren.“
Adam fügte hinzu: „Es gibt bereits eine wachsende Zahl von Menschen, die wie ich der Meinung sind, dass es praktischer sein wird, echte Medien als gefälschte Medien zu identifizieren.“

