Wird geladen...

Was passiert, wenn Killeralgorithmen das Völkerrecht übertreffen

In diesem Beitrag:

  • Die Folgen sind tödlich und weitreichend besorgniserregend, wenn Innovationen den Vorschriften voraus sind.
  • Künstliche Intelligenz schreitet rasant voran und ein unvorsichtiger Einsatz kann eine Gefahr für die Menschheit darstellen.
  • Von der militärischen Integration bis zur politischen Manipulation sind die negativen Auswirkungen der KI deutlich sichtbar.

Der unvorsichtige Einsatz von Algorithmen der künstlichen Intelligenz kann negative Auswirkungen auf die Menschheit haben, die wir uns nicht vorstellen können. Es gibt immer noch keine globalen Vorschriften zur Verhinderung der negativen Auswirkungen von Killeralgorithmen, obwohl die KI in den letzten zwei Jahren viele Fortschritte gemacht hat.  

Viele Länder integrieren künstliche Intelligenz in ihre militärischen Systeme zur Zielerkennung und zur Beschleunigung ihrer Feuerkraft, doch ihr unachtsamer Einsatz ist verheerend. Die negativen Auswirkungen von KI zeigen sich auch deutlich darin, dass sie demokratische Prozesse stören, indem sie versuchen, die öffentliche Meinung mit falschen Behauptungen durch Desinformation zu verändern.

Killeralgorithmen fordern unschuldige Leben

Wir haben kürzlich Ankündigungen zur Integration von KI in Militärsysteme aus vielen Ländern gesehen und eine ganze Reihe von trac haben ihre KI-gestützten Ziel- und Feuersysteme auf den Markt gebracht, von Drohnen über Radarsysteme bis hin zu Überwachungssystemen zur Erkennung menschlicher Ziele . 

Den nachlässigsten Einsatz erlebte Israel, als es auf die Gaza-Bevölkerung abzielte, indem es mithilfe von Killeralgorithmen Listen von Zielen erstellte, die oft falsch waren oder mit krimineller Fahrlässigkeit eingesetzt wurden, wobei Dutzende und Hunderte unschuldiger Zivilisten getötet wurden, wobei eine angebliche potenzielle Person das Hauptziel war. Stellen Sie sich die Verwüstung vor, die sie über die Zivilbevölkerung von Gaza angerichtet hat und die Tausende von Kindern und Frauen tötete, wie ein Beamter ausdrückte, dass die Maschine dies kaltblütig getan habe. Wirklich? Zivilisten kaltblütig zu töten ist die Realität, wie grausam Killeralgorithmen sein können.

Eine aktuelle Untersuchung der israelischen Zeitschrift +972 Magazine hat verblüffende Fakten über den Einsatz von KI durch israelische Streitkräfte für Luftangriffe ans Licht gebracht. Das als Lavender bekannte System wurde zur Erstellung von Listen Tausender mutmaßlicher Militanter und ein anderes System namens Gospel zur Auswahl von Gebäuden und Infrastruktur als Ziele verwendet. Die angewandte Strategie bestand darin, die Hamas-Einzelpersonen ins Visier zu nehmen, selbst wenn sie sich in ihren Häusern in den Wohnvierteln befanden, und dabei Hunderte von Zivilisten zu töten.  

Der Bericht enthält Interviews mit sechs israelischen Geheimdienstquellen, deren Namen aus Gründen der Quellensicherheit geheim gehalten wurden. Die Quellen behaupteten, dass Lavender zusammen mit anderen KI-Systemen zur Auswahl von Zielen verwendet werde. Sie erörterten auch die Nachsichtigkeit der Vorschriften für die Nutzung dieser Systeme und ihre Einschätzung, dass Zivilisten als Kollateralschaden getötet werden oder getötet werden dürfen, wobei jeder hochrangige oder niedrigrangige Hamas-Beamte zwischen zwei und drei Ziffern schwankt.  

Aber die tatsächlichen Zahlen scheinen diese zulässigen Schätzungen bei weitem zu übertreffen, die im Vergleich zu modernen Kriegsereignissen auf der ganzen Welt bereits die höchsten waren. Auch die Zahl der in den ersten drei Kriegsmonaten getöteten Kinder überstieg die Zahl der in Kriegen rund um den Globus getöteten Kinder. Es ist herzzerreißend, nur an sie zu denken.

Es mangelt noch immer an einer globalen Regulierung

Obwohl mörderische KI-Algorithmen Menschen in Kriegen töten, scheint es nicht genügend Anstrengungen zu geben, um dieser Bedrohung durch globale Staats- und Regierungschefs Einhalt zu gebieten. Es gibt keine globalen Vorschriften für den Einsatz von KI in der Kriegsführung, obwohl das Töten von Menschen und die Beschädigung wichtiger Infrastrukturen, um die Zivilbevölkerung ihrer grundlegenden menschlichen Bedürfnisse zu berauben, ein klares Kriegsverbrechen ist.  

Was wir sehen, sind Lippenbekenntnisse von Weltführern, gefolgt von einer weiteren Waffenlieferung aus den USA, die in Zusammenarbeit mit den besagten, auf KI basierenden Killeralgorithmen eingesetzt werden könnte. Die einzige rechtliche Klage bestand darin, dass Südafrika wegen Kriegsverbrechen gegen Israel den Internationalen Gerichtshof anrufen sollte.

Militärs auf der ganzen Welt versuchen, künstliche Intelligenz , und viele Länder versuchen, sich durch den Einsatz dieser Systeme einen militärischen Vorteil zu verschaffen. Auch geopolitische Spannungen befeuern diese Fortschritte, da Länder von den USA bis China allesamt darauf drängen, KI-Systeme für die Zielauswahl und Entscheidungsfindung zu entwickeln, um die Prozesse zu beschleunigen.

Bislang wurden durch den Einsatz künstlicher Intelligenz höhere Genauigkeit und weniger zivile Schäden behauptet, doch die tatsächlichen Gegebenheiten widersprechen den Behauptungen und die Gefahren von Killeralgorithmen übersteigen bei weitem die Präzisionsansprüche, die starke Anstrengungen zur Regulierung der KI auf globaler Ebene erfordern.

Die Berichte des +972 Magazins finden Sie hier .

Haftungsausschluss. Die bereitgestellten Informationen sind keine Handelsberatung. Cryptopolitan.com haftet nicht für Investitionen, die auf der Grundlage der auf dieser Seite bereitgestellten Informationen getätigt wurden. Wir tron dringend unabhängige dent und/oder Beratung durch einen qualifizierten Fachmann, bevor Sie Anlageentscheidungen treffen.

Einen Link teilen:

Meist gelesen

Die meisten gelesenen Artikel werden geladen...

Bleiben Sie über Krypto-Neuigkeiten auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang

Ähnliche Neuigkeiten

Wie kann Ihre neue App von AI Model-as-a-Service profitieren?
Kryptopolitan
Abonnieren Sie CryptoPolitan