UN-Generalsekretär António Guterres äußerte sich zutiefst besorgt über Berichte, wonach Israel den Einsatz von KI zur Überwachung von Zielen im Gazastreifen angefragt habe. Diese Meldung, die von der israelischen Zeitschrift +972 veröffentlicht wurde, bietet Anlass, die Vorgehensweise der Streitkräfte zu überdenken und wirft wichtige Fragen zum Einsatz von KI in aktuellen Kriegen auf.
Die Rolle der KI in der Kriegsführung wird aus Sicht der UN zu einem dringenden Problem
Ursprünglich rührte seine Besorgnis von dem gezielten Einsatz von KI durch das israelische Militär zur Bombardierung ziviler Gebiete und Bevölkerungszentren her. Der Generalsekretär wies auf die Gefahren hin, die entstehen, wenn Systeme auf Algorithmen angewiesen sind, um wichtige Entscheidungen mit weitreichenden Folgen für das Leben der Zivilbevölkerung zu treffen. Seine Rede verdeutlicht ein wachsendes globales Problem: die ethischen und rechtlichen Fragen des KI-Einsatzes in Konfliktgebieten, wobei der Fokus insbesondere auf Verantwortung und der Sicherheit der Kämpfer liegt.
Der +972-Bericht enthält mehrere wichtige Details.
Der Artikel von +972 kam zu dem Schluss, dass im Gazastreifen KI-Technologien zum Einsatz kamen und die Zielauswahl weitgehend ohne menschliche Beteiligung erfolgte. In manchen Fällen wurden Entscheidungen innerhalb weniger Sekunden getroffen, wie die KI-Analyse zeigte, die als ausreichender Beweis für ein Eingreifen gegen das Ziel innerhalb von nur 20 Sekunden galt. Diese kurze Reaktionszeit wirft Fragen hinsichtlich der Angemessenheit desdentauf. Es wird berichtet, dass die Annahme, viele Gaza-Bewohner seien potenzielle Ziele, eine geringe menschliche Intervention und eine vermeintlich flexible Politik im Umgang mitdentSchäden ermöglichte.
Israels Eingeständnis von Fehlern
In einer bemerkenswerten Erklärung räumte Israel eine Reihe von Fehlern ein, die zum tragischen Tod von sieben Helfern führten, die an Hamas-Operationen im Gazastreifen beteiligt waren und zuvor fälschlicherweise für bewaffnete Hamas-Kämpfer gehalten wurden. Diese Eingeständnisse verdeutlichen die Katastrophen, die durch technologische Kriegsführung verursacht werden, sowie die Herausforderungen und Fehler während des Krieges, insbesondere in den dicht besiedelten Kriegsgebieten. Ein solcher Fall unterstreicht die entscheidende Rolle einer gut kontrollierten Aufsicht und Rechenschaftspflicht beim Einsatz von Anwendungen künstlicher Intelligenz im Kampfgebiet.
Die Integration von KI in militärische Strategien ist ein bemerkenswertes Ereignis, das eine Schlüsselrolle in der Kriegsführung und -regulierung spielt. Präzise Zielerfassung und Effizienz sind positive Ergebnisse, wobei künstliche Intelligenz (KI) in der Kriegsführung auf Algorithmen basiert. Die moralischen, rechtlichen und humanitären Bedenken, die sich durch den Einsatz von Computern als „Intelligenz“ und „Entscheidungsträger“ ergeben, sind jedoch komplex und kontrovers. Der Gaza-Fall, der Dilemmata im Zusammenhang mit dem Einsatz von KI in bewaffneten Konflikten aufwirft, repräsentiert ein breiteres Spektrum an Problemen – vom technologischen Fortschritt bis hin zum bestehenden Gleichgewicht zwischen Zivilschutz, menschlicher Sorgfalt und den Erfordernissen des Krieges.
Originalmeldung von: https://www.jamaicaobserver.com/2024/04/05/un-chief-deeply-troubled-reports-israel-using-ai-identify-gaza-targets/

