NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Im Inneren des weltweit ersten KI-Krieges: Zielfehler, Desinformation und Verantwortlichkeitslücken

VonNoor BazmiNoor Bazmi
3 Minuten Lesezeit
Im Inneren des weltweit ersten KI-Krieges: Zielfehler, Desinformation und Verantwortlichkeitslücken
  • Das US-Militär untersucht noch immer den Bombenanschlag auf eine Schule im Iran, und niemand hat bisher gesagt, ob künstliche Intelligenz bei der Auswahl des Ziels eine Rolle gespielt hat.
  • Das Maven Smart System, das nun auf einem großen Sprachmodell basiert, half den US-Streitkräften, innerhalb von 24 Stunden 1.000 Ziele anzugreifen.
  • Unterdessen erzielten KI-generierte Kriegsaufnahmen Hunderte Millionen Aufrufe, wobei die Plattformen nur langsam reagierten.

Am ersten Tag der US-amerikanischen und israelischen Luftangriffe auf den Iran wurde in der südiranischen Stadt Minab eine Schule bombardiert. Mehr als 175 Menschen, darunter Schulkinder, starben. Weder Washington noch Tel Aviv haben geäußert zu den Geschehnissen Niemand hat die Verantwortung übernommen. Immer wieder stellt sich die Frage: Hat ein KI-System getroffen das falsche Ziel?

In den ersten 24 Stunden griffen US-Streitkräfte rund 1.000 Ziele an, etwa 42 pro Stunde. Ein CSET-Bericht über das 18. Luftlandekorps ergab, dass mitdemMaven Smart System 20 Personen bewältigen die Aufgaben eines . Ende 2024 integrierten ein umfangreiches Sprachmodell – dieselbe Software, die auch in KI-Chatbots für Endverbraucher zum Einsatz kommt – in Maven. Dies war einer der ersten Kriege, eingesetzt wurde diese Technologie zur Zielerfassung

Das US-Militär untersucht weiterhin dazu . Es hat sich nicht geäußert , ob und in welcher Rolle das KI-System spielte beim Abschuss der Rakete auf das Gebäude

Die New York Times berichtete frühzeitig, dass das System möglicherweise mit veralteten Daten gearbeitet habe Loveluck Auslandskorrespondentin Louisa schriebdent auf X, der Angriff habe möglicherweise „auf Geheimdienstinformationen zehn Jahre altenkostenlosonline eingesehen habe, hätte an einem der als Angriffsziele markierten Orte „eine Schule mit Sportplatz“ erkennen können.

Der Informatiker Anh Totti Nguyen hat untersucht, wo KI-Bildverarbeitungssysteme versagen. In seiner Arbeit „Vision language models are blind: Failing to translate detailed visual features into words“ (Bildsprachmodelle sind blind: Das Versagen bei der Übersetzung detaillierter visueller Merkmale in Worte) stellte er fest, dass diese Systeme häufig dann versagen, wenn zwei Strukturen nahe beieinander liegen und die Software herausfinden muss, welche welche ist.

Satellitenbilder der New York Times zeigen, dass die Shajarah Tayyebeh Grundschule liegt direkt neben einem Gelände der Revolutionsgarden in Minab aufgedeckt hat.

Wer trägt die Verantwortung, wenn die KI einen Fehler macht?

Emilia Probasco, ehemalige Marineoffizierin und Senior Fellow am Center for Security and Emerging Technology, erklärte im Podcast , dass die Verantwortung beim Befehlshaber liege, der den Befehl erteilt habe. So das Militär funktioniere. Das Problem der „Black Box“, also die Unmöglichkeit, den Lösungsweg eines KI-Systems nachzuvollziehen, sei „ein fortlaufendes Forschungsgebiet, noch nicht gelöst“.

Anthropic, das Unternehmen, dessen Technologie steckt Maven geriet einen Vertragsstreittracmit dem Verteidigungsministerium über zwei Punkte: ob KI zuverlässig genug für lebenswichtige Entscheidungen und ob die Verwendung von KI zur Verknüpfung verstreuter Datenpunkte sie in ein Massenüberwachungsinstrument verwandelt.

Probasco sagte, beide Bedenken seien berechtigt, aber merkte es sei „unangenehm, wenn ein privates Unternehmen Grenzen zieht, wie das Militär seine Operationen“.

Holland Michel sagte, die Diskussion drifte immer weiter in Richtung des schlimmsten anzunehmenden Falls ab : Eine Maschine, die auswählt Ziele ohne menschliches Eingreifen. Dieses Risiko sei real, sagte er, aber es entspreche nicht der aktuellen Situation.

„Die schwierigere und dringlichere Aufgabe“, sagte er, „besteht darin, KI-Systeme transparenter zu machen und sicherzustellen, dass die Menschen, die sich auf deren Ergebnisse verlassen, wirklich fundierte Entscheidungen treffen und sich nicht einfach dem beugen, was die Maschine vorschlägt.“

KI-generierte Kriegsinhalte verbreiteten sich ebenfalls schnell online.

BBC Verify tracKI -generierte Videos und manipulierte Satellitenbilder über den Konflikt, die erzielten Hunderte von Millionen Aufrufe

Timothy Graham, ein Forscher für digitale Medien an der Queensland University of Technology, sagte: „Das Ausmaß ist wirklich alarmierend , und dieser Krieg macht es unmöglich, es jetzt zu ignorieren.“ Er fügte hinzu: „Was früher professionelle Videoproduktion erforderte, kann heute mit KI-Tools in Minuten erledigt werden. Die Hürde für die Erstellung überzeugender synthetischer Konfliktaufnahmen ist praktisch gefallen.“

X kündigte an, . Content -Ersteller von seinem Vergütungsprogramm auszuschließen, wenn sie KI-generiertes Kriegsmaterial ohne Kennzeichnung veröffentlichen Mahsa Alimardani, Iran-Expertin am Oxford Internet Institute, bezeichnete dies als deutliches Signal dafür, dass sie das Problem erkannt haben“.nicht reagierten planen ähnliche Maßnahmen.

Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.

Diesen Artikel teilen
MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS