Wird geladen...

Die Killerroboter sind keine Roboter, sondern Menschen

TL;DR

  • Killerroboter sind bereits vor Ort und beweisen ihre verheerende Wirkung auf die Menschheit.
  • Menschen auf der ganzen Welt sind besorgt über den fahrlässigen Einsatz von KI-Systemen in Kriegen.
  • Die eigentliche Gefahr liegt im Moment nicht beim Roboter, sondern bei der Person, die ihn unvorsichtig oder vielleicht mit böser Absicht steuert.

Die Killerroboter sind bereits auf dem Schlachtfeld und erweisen sich als ziemlich zerstörerische Waffen. Wir sollten uns Sorgen machen – tatsächlich sehr besorgt. Da sie ihr tödliches Potenzial in den Kriegen im Gazastreifen und in der Ukraine unter Beweis gestellt haben, könnten die Folgen verheerend sein, wenn mit ihnen nachlässig umgegangen wird. Am 3. April veröffentlichte die Zeitschrift +972 in einer israelischen Publikation einen Bericht über den Einsatz von KI durch Israel zur dent von Zielen in Gaza.  

Das KI-System heißt Lavender und soll Tötungslisten mutmaßlicher Hamas-Angehöriger, einschließlich derjenigen, die in niedrigeren Rängen arbeiten, kuratiert haben. Wir haben keine Ahnung, wie korrekt die Listen waren, aber die besorgniserregendste Tatsache ist, dass damit die Militanten ins Visier genommen wurden, selbst wenn sie sich in ihren Häusern mit ihren Familien und Kindern und vielen Zivilisten in der Nähe befanden. Die folgende Grafik zeigt die Zahl der Opfer und Verletzten bis zum 15. April.

Quelle: Statista .

Algorithmen sagen, wen man ansprechen soll

Wie aus der hohen Zahl ziviler Todesopfer und der massiven Zerstörung der Infrastruktur nach der israelischen Invasion im Gazastreifen dent , löste der Bericht bei humanitären Organisationen, Regierungsbeamten und jedem vernünftigen Menschen auf der ganzen Welt und in den USA große Besorgnis aus. Antonio Guterres, Generalsekretär der Vereinten Nationen, sagte, er sei „zutiefst beunruhigt“, und John Kirby, Sprecher des Weißen Hauses, sagte, dass „die USA den Bericht genau prüfen“.

Guterres zeigte sich mehr Sorge um die Opfer und sagte:

 „Kein Teil von Entscheidungen über Leben und Tod, die ganze Familien betreffen, sollte der kalten Berechnung von Algorithmen überlassen werden.“

Quelle: Worldpoliticsreview .

Der Bericht wurde nach dem dent veröffentlicht, bei dem Israel sieben westliche Hilfskräfte angegriffen und getötet hatte, darunter einige ehemalige britische Militärangehörige. Dies veranlasste natürlich Richter und Anwälte in ganz Großbritannien, die Waffenverkäufe an Israel aufgrund seiner Kriegsverbrechen und schweren Verstöße gegen das Völkerrecht zu stoppen.

Eine andere Dimension des Nachdenkens über Killerroboter

Aljazeera visualisierte Szenen in Gaza bereits im November basierend auf OCHA-Statistiken. Quelle: Aljazeera .

Die Kampagne zum Stoppen von Killerrobotern äußerte ihre Besorgnis, sagte jedoch, dass dies nicht das sei, wogegen sie sich seit 2012 bekämpft, da es ihrer Meinung nach ein Datenverarbeitungssystem sei und die endgültige Entscheidung, zu schießen, weiterhin in menschlichen Händen liege, aber eine ihrer Aussagen bietet eine andere Dimension über etwas nachdenken. Die Erklärung erfolgte nach der Veröffentlichung der Nachricht, hieß es:

„Mangel an sinnvoller menschlicher Kontrolle und Engagement bei der Entscheidung, empfohlene Ziele anzugreifen.“

Quelle: Worldpoliticsreview .

In dieser Erklärung wird das Wort „Mangel an sinnvoller menschlicher Kontrolle“ verwendet, was den bereits verurteilten künstlichen Intelligenzen und Killerrobotern eine weitere Ebene der Komplexität verleiht und Aktivisten ein neues Anliegen bietet, für das sie sich einsetzen können.

Künstliche Intelligenz wird üblicherweise so dargestellt, dass sie eines Tages den Planeten erobern und katastrophalen Schaden sogar die Menschheit aussterben könnte. Noch besorgniserregender ist jedoch die Tatsache, dass die Streitkräfte, die sie einsetzen, bei ihren Zielen weniger Vorsicht walten lassen, sie dadurch weniger rechenschaftspflichtig werden und in Kriegen unethische Entscheidungen treffen, wie wir bereits in Gaza gesehen haben. Letztlich geht es also nicht darum, dass Roboter Entscheidungen gegen Menschen treffen, sondern dass Menschen in solch sensiblen Lebens- und Todessituationen Roboterentscheidungen treffen, ohne ihre eigenen kognitiven Fähigkeiten voll auszuschöpfen. Wie in dem Bericht eine Quelle erwähnt wird, heißt es:

„Die Maschine hat es eiskalt gemacht.“

Quelle: +972mag.

Es gibt noch einen weiteren Aspekt: ​​Dies kann die Fähigkeit von Programmierern beeinträchtigen, effektiv mit KI-Systemen zu kommunizieren, was zu Kriegsverbrechen führen kann.

Die Originalmeldung finden Sie hier .

Haftungsausschluss:  Die bereitgestellten Informationen sind keine Handelsberatung. Cryptopolitan.com haftet nicht für Investitionen, die auf der Grundlage der auf dieser Seite bereitgestellten Informationen getätigt wurden. Wir empfehlen tron dent Recherche und/oder Beratung durch einen qualifizierten Fachmann, bevor Sie eine Anlageentscheidung treffen.

Einen Link teilen:

Aamir Scheich

Amir ist ein Medien-, Marketing- und Content-Experte, der in der digitalen Branche arbeitet. Ein Veteran in der Content-Produktion Amir ist jetzt ein begeisterter Befürworter, Analyst und Autor von Kryptowährungen.

Meist gelesen

Die meisten gelesenen Artikel werden geladen...

Bleiben Sie über Krypto-Neuigkeiten auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang

Ähnliche Neuigkeiten

Technik
Kryptopolitan
Abonnieren Sie CryptoPolitan