Die Killerroboter sind bereits im Einsatz und erweisen sich als äußerst zerstörerische Waffen. Wir sollten uns Sorgen machen – und zwar große. Da sie ihr tödliches Potenzial in den Kriegen im Gazastreifen und in der Ukraine unter Beweis gestellt haben, könnten die Folgen verheerend sein, wenn wir sie unachtsam einsetzen. Am 3. April veröffentlichte das israelische Magazin +972 einen Bericht über Israels Einsatz von KI zurdentim Gazastreifen.
Das KI-System namens Lavender soll Tötungslisten mutmaßlicher Hamas-Mitglieder erstellt haben, darunter auch solche in niedrigeren Rängen. Wie genau diese Listen waren, ist unklar, doch besonders besorgniserregend ist, dass sie genutzt wurden, um die Kämpfer selbst dann ins Visier zu nehmen, wenn sie sich in ihren Häusern im Kreise ihrer Familien und Kinder befanden und sich zahlreiche Zivilisten in der Nähe aufhielten. Die folgende Grafik zeigt die Zahl der Toten und Verletzten bis zum 15. April.

Algorithmen geben vor, wen sie ins Visier nehmen sollen
Wie die hohe Zahl ziviler Todesopfer und das massive Ausmaß der Zerstörung von Infrastruktur nach Israels Invasion im Gazastreifendent , löste der Bericht weltweit, auch in den USA, ernsthafte Besorgnis bei humanitären Organisationen, Regierungsvertretern und allen vernünftigen Menschen aus. UN-Generalsekretär António Guterres äußerte sich „zutiefst besorgt“, und John Kirby, Sprecher des Weißen Hauses, erklärte, die USA prüften den Bericht eingehend
Guterres zeigte mehr Mitgefühl für die Opfer und sagte:
„Kein Teil von Entscheidungen über Leben und Tod, die ganze Familien betreffen, sollte der kalten Berechnung von Algorithmen überlassen werden.“
Quelle: Worldpoliticsreview .
Der Bericht wurde nach demdent veröffentlicht, bei dem Israel sieben westliche Entwicklungshelfer, darunter ehemalige britische Militärangehörige, gezielt tötete. Dies veranlasste Richter und Anwälte in ganz Großbritannien, Waffenlieferungen an Israel aufgrund dessen Kriegsverbrechen und schwerwiegender Verstöße gegen das Völkerrecht zu stoppen.
Eine weitere Dimension des Nachdenkens über Killerroboter

Die Kampagne gegen Killerroboter äußerte zwar Bedenken, betonte aber, dass dies nicht das sei, wogegen sie seit 2012 kämpfe. Ihrer Ansicht nach handele es sich um ein Datenverarbeitungssystem, und die endgültige Entscheidung zum Abfeuern liege weiterhin in menschlicher Hand. Eine ihrer Aussagen wirft jedoch ein neues Licht auf die Problematik. Die Stellungnahme erfolgte nach der Veröffentlichung der Nachricht und lautete:
„Mangelnde sinnvolle menschliche Kontrolle und Beteiligung an den Entscheidungen zum Angriff auf empfohlene Ziele.“
Quelle: Worldpoliticsreview .
In dieser Erklärung wird der Begriff „fehlende sinnvolle menschliche Kontrolle“ verwendet, was der ohnehin schon verurteilten künstlichen Intelligenz und den Killerrobotern eine weitere Ebene der Komplexität hinzufügt und den Aktivisten zudem ein neues Anliegen liefert, für das sie sich einsetzen können.
Künstliche Intelligenz wird oft so dargestellt, als könnte sie eines Tages die Weltherrschaft übernehmen und katastrophalen Schaden , bis hin zur Auslöschung der Menschheit. Besorgniserregender ist jedoch, dass die Streitkräfte, die sie einsetzen, bei der Zielauswahl weniger Vorsicht walten lassen und dadurch weniger Verantwortung übernehmen. Dies führt zu unethischen Entscheidungen in Kriegen, wie wir sie bereits im Gazastreifen erlebt haben. Letztendlich geht es also nicht darum, dass Roboter gegen Menschen entscheiden, sondern darum, dass Menschen in solch heiklen Situationen, in denen es um Leben und Tod geht, roboterhafte Entscheidungen treffen, ohne ihre eigenen kognitiven Fähigkeiten voll auszuschöpfen. Wie der Bericht eine Quelle zitiert:
„Die Maschine hat es kaltblütig erledigt.“
Quelle: +972mag.
Es gibt aber noch einen anderen Aspekt: Dadurch kann die Fähigkeit von Programmierern beeinträchtigt werden, effektiv mit KI-Systemen zu kommunizieren, was letztendlich zu Kriegsverbrechen führen kann.

