Der Israel-Iran-Konflikt hat die schlimmsten Auswüchse der KI-Desinformation entfesselt

- Seit dem Ausbruch der Kämpfe zwischen Israel und Iran wurden mithilfe von KI viele Falschinformationen online verbreitet.
- Die drei meistgesehenen gefälschten Videos haben zusammen über 100 Millionen Aufrufe auf verschiedenen Plattformen erzielt.
- Grok täuschte X-Nutzer mehrmals, indem er sie glauben ließ, die KI-Videos seien echt.
Seitdem Israel und Iran letzte Woche zu umfassenden Angriffen übergegangen sind, wurden mithilfe von KI zahlreiche Falschinformationen im Internet verbreitet. Recherchen von BBC Verify ergaben mehrere Videos, die mit der militärischen Stärke des Irans prahlten, sowie gefälschte Videos, die angeblich die Auswirkungen von Angriffen auf israelische Ziele zeigten.
Die meisten Beiträge versuchten Berichten zufolge, die Auswirkungen der Angriffe in Teheran zu verstärken. Die drei meistgesehenen gefälschten Videos haben zusammen über 100 Millionen Aufrufe auf verschiedenen Plattformen erzielt.
Online verbreiten pro-israelische Accounts ebenfalls Falschinformationen, vor allem durch das Teilen alter Videos von Protesten und Versammlungen im Iran. Diese Videos zeigen angeblich mehr Menschen, die gegen die Regierung protestieren und Israels Militärkampagne unterstützen.
Manche verdienen Geld mit den Spannungen im Nahen Osten
Eine Gruppe, die frei zugängliche Bilder analysiert, bezeichnete die Menge an Falschinformationen im Internet als „erschreckend“. Sie erklärte, einige versuchten, aus dem Konflikt Profit zu schlagen, indem sie Falschinformationen online verbreiteten, um Aufmerksamkeit zu erregen.
„Wir sehen alles Mögliche, von zusammenhanglosem Filmmaterial aus Pakistan bis hin zu recycelten Videos der Angriffe vom Oktober 2024 – von denen einige über 20 Millionen Aufrufe erzielt haben – sowie Spielclips und KI-generierte Inhalte, die als reale Ereignisse ausgegeben werden“, schrieb Geoconfirmed, die Online-Verifizierungsgruppe, auf X.
Infolgedessen haben einige Accounts viele Follower gewonnen und sich zu „Superverbreitern“ von Falschinformationen entwickelt.
Daily Iran Military, ein pro-iranischer Account, der scheinbar keine Verbindungen zur Regierung in Teheran hat, gewann in weniger als einer Woche 1,4 Millionen Follower auf X hinzu, gegenüber etwas über 700.000 am 19. Juni.
Emmanuelle Saliba, leitende Ermittlerin der Forschungsgruppe Get Real, sagte, es sei „das erste Mal, dass wir den Einsatz von generativer KI in diesem Umfang während eines Konflikts beobachten“
Israel startete am 13. Juni Angriffe im Iran , woraufhin mehrere iranische Raketen- und Drohnenangriffe auf Israel folgten.
Falsche Meldungen über die Zerstörung israelischer F-35-Kampfjets.
Auch Berichte über die Zerstörung israelischer F-35-Kampfjets wurden von KI-gestützten Fälschungen ins Visier genommen. Die F-35 ist ein hochmodernes, in den USA hergestelltes Kampfflugzeug, das Ziele am Boden und in der Luft angreifen kann. Lisa Kaplan, Leiterin der Analystengruppe Alethea, erklärte gegenüber BBC Verify , dass der Iran, wären die Videos echt, 15 % der israelischen Kampfjetflotte versenkt hätte.
Es gibt immer noch keinen Beweis dafür, dass irgendein Video von abgeschossenen F-35 echt ist.
Laut Frau Kaplan interessieren sich viele Menschen für die F-35. Dies liegt an einer Gruppe von Accounts, die Alethea zuvor mit russischen Operationen in Verbindung gebracht hat, die Menschen betreffen.
Sie sagte, dass sich die russischen Einflussbemühungen in letzter Zeit von dem Versuch, die Unterstützung für den Krieg in der Ukraine zu schwächen, hin zur Verbreitung von Fragen über die Leistungsfähigkeit westlicher Waffen, insbesondere amerikanischer Waffen, verlagert hätten.
Musks Grok wurde dabei ertappt, wie es X-Nutzer in die Irre führte
Viele der Desinformationen, die BBC Verify untersucht hat, wurden auf X geteilt, und die Nutzer verwenden oft den KI-Bot Grok der Plattform, um die Richtigkeit der Beiträge zu überprüfen.
Grok behauptete zeitweise, die KI-Videos seien echt. In einem dieser Videos war ein endloser Strom von Lastwagen mit ballistischen Waffen zu sehen, die aus einem Bergkomplex herausfuhren . Frau Saliba sagte, die sich im Video selbstständig bewegenden Felsendentein eindeutiges Indiz für KI-generierte Inhalte.
Vorbereitungen für die heutige Show pic.twitter.com/ArxNGaWjzQ
— Military Media (@hehe_samir) 18. Juni 2025
Grok antwortete X Nutzern wiederholt, das Video sei echt, und zitierte als Beweis Meldungen von Newsweek und Reuters. „Weitere Informationen finden Sie in vertrauenswürdigen Nachrichten“, hieß es am Ende mehrerer Nachrichten.
TikTok teilte BBC Verify mit, dass es die Community-Regeln aktiv durchsetzt, „die ungenaue, irreführende oder falsche Inhalte verbieten“, und dass es mit externen Faktencheckern zusammenarbeitet, um „irreführende Inhalte zu überprüfen“. Meta, der Eigentümer von Instagram, reagierte jedoch nicht auf die Anfrage nach einer Stellungnahme.
Wenn Sie einen ruhigeren Einstieg in die DeFi Kryptowährungen ohne den üblichen Hype wünschen, beginnen Sie mit diesem kostenlosen Video.
Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)















