In den vergangenen Tagen wiederholte ein hochrangiger US-Beamter die Forderung, dass alle Atommächte hochrangige Experten mit der Überwachung ihrer Waffen beauftragen müssten. Paul Dean, amtierender stellvertretender Staatssekretär im Referat für Rüstungskontrolle, Abschreckung und Stabilität im US-Außenministerium, erklärte, es sei äußerst riskant, die Tatsache zu ignorieren, dass Maschinen in einer Gefahrensituation versagen könnten, in der ein einziger Fehltritt größeren Schaden anrichten könne als der ursprüngliche Schaden an den Maschinen. Er verwies insbesondere auf die Übereinkunft des UN-Sicherheitsrats über den grundlegenden Einfluss menschlicher Expertise auf Entscheidungen im Bereich des strategischen Waffenmanagements.
Der Oppenheimer-Moment der KI
Die Risiken einer als Waffe eingesetzten künstlichen Intelligenz haben die Oppenheimer-Krise deutlich übertroffen. Dies zeigt deutlich, dass die ethische Zwickmühle, vor der J. Robert Oppenheimer, der Vater der Atombombe, stand, nun die Debatte über die Rolle der KI in modernen Konflikten prägt. Vor einigen Wochen war die Notwendigkeit einer strikten Implementierung von KI in den Regulierungssystemen für Militärtechnologie eines der Hauptthemen einer internationalen Fortbildung, an der über hundert Nationen teilnahmen. Der österreichische Außenminister Alexander Schallenberg argumentierte, dass KI im militärischen Bereich keine Bedingungen für oder gegen lebenswichtige Entscheidungen des Menschen stellt und einen ebenso bedeutenden Einfluss auf die Militärtechnologie hat wie Schießpulver.
Autonome Waffensysteme und internationale Diplomatie
Auf der Konferenz zu autonomen Waffensystemen in Wien wurde auch erörtert, wie künstliche Intelligenz in Kriegsstrategien integriert wird und wie dringend ein internationales Vertragssystem zur Regelung solcher Technologien benötigt wird. Obwohl KI im militärischen Bereich bereits weit verbreitet ist, existiert noch kein konkretes internationales Rechtsregime für letale autonome Waffensysteme (LAWS). Die Konferenz war dem Land gewidmet, das die bevorstehenden Verhandlungen ausrichten wird, und den Verhandlungen, die möglicherweise zur Ausarbeitung eines solchen Vertrags führen werden.
Globale militärische Entwicklungen und KI
Ein aktueller Fall verdeutlicht einige legitime Anwendungen von KI für militärische Zwecke. Besonders besorgniserregend ist das Projekt „Lavender“, ein von einem israelischen Spion verwendeter (falscher) Name für ein KI-System. Es wurde eigens entwickelt, um umfangreiche Daten über Verdächtige (falsch) zu sammeln und Ziele zu projizieren. Darüber hinaus hat das ukrainische Militär mit der Entwicklung KI-gestützter Anti-Drohnen begonnen, die Präzision und Sicherheit verbessern sollen. Dies zeigt, dass der Übergang zu automatisierten Militärtechnologien rasant voranschreitet. Parallel dazu werden diematic Bemühungen fortgesetzt, und die Biden-Administration führt weiterhin Gespräche mit China.
Die Sorge betrifft nicht nur kurzfristige Fragen der Atomwaffenpolitik, sondern auch die rasante Entwicklung der KI im größeren Kontext. Diese Schlussfolgerungen sollen die Grundlage für den Umgang mit den von KI ausgehenden Risiken schaffen und die dualistische Rolle der KI in der Technologie anerkennen. Angesichts des Trends zur Integration von KI-Technologie in die Fernsteuerung von Streitkräften ist die Notwendigkeit eines internationalen Vertragssystems zur Regulierung dieser Technologientrondenn je. Gespräche und die laufenden Verhandlungen sind entscheidende Schritte, um sicherzustellen, dass Roboter, die sowohl dem Schutz als auch der Kriegsführung dienen, auch unter menschlicher Kontrolle stehen.

