Trotz der Unreife der KI besteht ein starker Drang, sie im Kampf einzusetzen

- Die Innovationen schreiten in rasantem Tempo voran, aber die Regulierungen lassen sich viel Zeit.
- Die Technologie ist noch nicht ausgereift, aber die Militärs rund um den Globus drängen darauf, sie schnellstmöglich gegen menschliche Ziele einzusetzen.
- Es besteht dringender Handlungsbedarf, die ins Stocken geratenen Gespräche über die Regulierung von KI für militärische Zwecke wieder aufzunehmen.
In letzter Zeit standen die Fortschritte im Bereich der künstlichen Intelligenz (KI) im Fokus der Schlagzeilen. Doch KI existiert bereits seit Jahrzehnten und wird auch in Zukunft in einer Vielzahl militärischer und verteidigungspolitischer Anwendungen eine wichtige Rolle in der Kriegsführung spielen.
Es betrifft nicht nur das Militär; möglicherweise lesen Sie diesen Text auf einem Gerät, das bereits stark auf künstliche Intelligenz setzt; daher haben Sie KI wahrscheinlich schon vor dem jüngsten Trubel in irgendeiner Form genutzt.
Künstliche Intelligenz wurde höchstwahrscheinlich in jeder Situation eingesetzt, in der Sie online etwas bezahlt haben, zum Beispiel für Essen oder Unterhaltung, Ihr Gesicht oder Ihren Fingerabdruck zum Entsperren Ihres Telefons verwendet haben, soziale Medien genutzt oder Reisen über eine Telefonanwendung geplant haben.
Wir haben uns auf vielfältige Weise an KI gewöhnt und sie – oft ohne es zu merken – in unseren Alltag integriert.
Militärische KI existiert seit dem Zweiten Weltkrieg
Obwohl Waffen seit dem Zweiten Weltkrieg in der Lage sind, einige Entscheidungen zu treffen, ermöglicht ihnen die künstliche Intelligenz nun, weitaus mehr Entscheidungen zu treffen, und wird dies schließlich zur Normalität machen.
Was wäre, wenn jemand angegriffen würde und seinedentdurch eine solche Gesichtserkennungssoftware ermittelt würde? Was wäre, wenn eine ähnliche Software, anstatt das beste Restaurant zudent, Flugzeuge zu einem Luftangriff auf ein Ziel lenken würde?
Lesen Sie auch: Deutet die Einführung von KI-gestützten Militärsystemen auf eine finstere Wendung in der Kriegsführung hin?
Das scheint bisher ein wirklich großes Problem zu sein. Die Frage ist: Können KI-Systeme tatsächlich selbstständig Entscheidungen über Leben und Tod treffen? Ihre Genauigkeit ist nicht perfekt und variiert je nach Situation, und wir wissen, dass sie nicht immer richtig liegen.
In realen Konfliktgebieten wie Gaza und der Ukraine wählt KI bereits die Zielpersonen aus. Israel soll laut einer Studie des israelischen Nachrichtenportals +972 Magazine ein KI-System namens Lavender eingesetzt haben, das nur über geringe menschliche Entscheidungskompetenz verfügt, um mögliche Ziele auszuwählen. Dies führte zu einer erheblichen Zahl ziviler Opfer.
Maschinen können es kaltblütig
Österreich veranstaltete kürzlich eine Konferenz, um die Regulierung von KI-Waffen und deren potenziell verheerenden Auswirkungen zu erörtern. KI kämpft bereits gegen Menschen und ihre Siedlungen und nimmt diese ins Visier. Der österreichische Außenminister Alexander Schallenberg sagte:
„Wir dürfen diesen Moment nicht ungenutzt verstreichen lassen. Jetzt ist es an der Zeit, sich auf internationale Regeln und Normen zu einigen, um die Kontrolle durch den Menschen zu gewährleisten.“
Quelle: Reuters.
Die Technologie, die viele Militärs in Kriegsgebieten einsetzen, ist noch lange nicht ausgereift und wird noch nicht zur Zielauswahl genutzt. Die Technologie, die wir als intelligent bezeichnen, ist noch nicht so leistungsfähig wie das Gehirn einer Katze; selbst Experten sagen, dass es ein großer Erfolg wäre, in den kommenden Jahren das Intelligenzniveau einer Maus zu erreichen.
Doch die Abhängigkeit davon ist so groß, dass sie brutal eingesetzt wird und sowohl das Ziel als auch den Waffenträger entmenschlicht. Dies wirft ernsthafte moralische, humanitäre und ethische Fragen auf.
Als Menschen haben wir Groll, aber um einen trauernden Soldaten zu verhindern, können Militärs nun diese neue Waffe einsetzen, wie das +972 Magazine unter Berufung auf eine geheime Quelle aus dem Geheimdienst berichtet
„Die Maschine hat es kaltblütig erledigt. Und das hat es einfacher gemacht.“
Quelle: +972 Magazin.
Ist es wirklich wichtig, dass Nutzer in den Auswahlprozess einbezogen werden? Auf die Frage eines anderen Lavender-Nutzers antwortete er, dass er sich zu diesem Zeitpunkt 20 Sekunden pro Ziel Zeit nähme und täglich Dutzende davon abschloss. Abgesehen von der offiziellen Bestätigung hatte er als Mensch keinen zusätzlichen Wert. Es sparte ihm viel Zeit.
Es ist leicht zu verstehen, wie viel Entscheidungsmacht wir Menschen bereitwillig an Maschinen abgeben.
Internationale Abkommen sind noch in weiter Ferne
Die Vereinigten Staaten haben mit der Umsetzung der Politischen Erklärung zum verantwortungsvollen militärischen Einsatz von Künstlicher Intelligenz und Autonomie regulatorische Schritte eingeleitet. Australien ist der Erklärung ebenfalls beigetreten. Ein internationales Abkommen ist jedoch noch in weiter Ferne.
In der Erklärung wird die Wichtigkeit von Schutzmaßnahmen betont, da es heißt:
„Die Staaten sollten geeignete Schutzmaßnahmen ergreifen, um die Risiken von Ausfällen militärischer KI-Fähigkeiten zu mindern, wie etwa die Fähigkeit, unbeabsichtigte Folgen zu erkennen und zu vermeiden, und die Fähigkeit, darauf zu reagieren, beispielsweise durch Abschalten oder Deaktivieren eingesetzter Systeme, wenn diese ein unbeabsichtigtes Verhalten zeigen.“
Quelle: US-Außenministerium.
Das Dokument betont außerdem, dass der Einsatz von KI im Militär ethisch vertretbar und wünschenswert sei und zur Stärkung der internationalen Sicherheit beitrage. Die Realität vor Ort zeichnet jedoch, wie bereits erwähnt, ein völlig anderes Bild.
Das Aufspüren und Lokalisieren feindlicher Militärangehöriger ist eine Anwendung solcher Systeme; angesichts der laufenden Innovationen im Bereich der Sprengtechnik haben wir keine Ahnung, welche anderen komplexen militärischen Einsatzmöglichkeiten sich ergeben könnten.
Lesen Sie auch: Kaspersky weist Vorwürfe der Unterstützung des russischen Militärs zurück
Die Debatte, KI aus der Kriegsführung auszuschließen, scheint zum jetzigen Zeitpunkt keine Option zu sein, aber Gesetzgeber auf der ganzen Welt und Regierungen, die in Konflikte verwickelt sind, müssen sich der begrenzten Fähigkeiten der KI und des potenziellen Chaos bewusst sein, das sie über uns Menschen bringen könnte.
Aktuell hinkt die Politik dem Innovationstempo hinterher, und das muss zumindest teilweise, wenn nicht sogar vollständig, angegangen werden. Wir können nicht einfach zurücklehnen und sagen: „Wow! Die KI hat wieder 1.000 Menschen getötet.“ Was wird die KI bringen? Wir wissen es noch nicht, aber die Frage, was die Politik tun sollte, ist nicht nur Genies vorbehalten.
Cryptopolitan Berichterstattung von Aamir Sheikh
Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.
Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtronempfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführendent oder einen qualifizierten Fachmann zu konsultieren
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)















