Les robots tueurs sont déjà déployés sur le champ de bataille et se révèlent être des armes redoutables. Il y a lieu de s'inquiéter, et même de s'inquiéter fortement. Leur potentiel meurtrier ayant été démontré lors des conflits à Gaza et en Ukraine, les conséquences pourraient être dévastatrices en cas de négligence. Le 3 avril, le magazine israélien +972 a publié un article sur l'utilisation par Israël de l'intelligence artificielle pourdentdes cibles à Gaza.
Le système d'IA, baptisé Lavender, aurait établi des listes de personnes à abattre, notamment des membres présumés du Hamas, y compris des subalternes. On ignore la fiabilité de ces listes, mais le plus inquiétant est qu'elles auraient servi à cibler des militants chez eux, entourés de leurs familles et de nombreux civils. Le graphique ci-dessous présente le nombre de victimes et de blessés jusqu'au 15 avril.

Les algorithmes indiquent qui cibler
Comme endent le nombre élevé de victimes civiles et l'ampleur des destructions d'infrastructures suite à l'invasion israélienne de Gaza, le rapport a suscité de vives inquiétudes au sein des organisations humanitaires, des responsables gouvernementaux et de toute personne sensée à travers le monde, y compris aux États-Unis. António Guterres, Secrétaire général des Nations Unies, s'est dit « profondément préoccupé » et John Kirby, porte-parole de la Maison Blanche, a déclaré que « les États-Unis examinaient attentivement le rapport »
Guterres s'est montré plus préoccupé par le sort des victimes et a déclaré :
« Aucune décision de vie ou de mort ayant un impact sur des familles entières ne devrait être déléguée au froid calcul d'algorithmes. »
Source : Worldpoliticsreview .
Le rapport a été publié après l'dent au cours duquel Israël a pris pour cible et tué sept travailleurs humanitaires occidentaux, dont certains étaient d'anciens militaires britanniques. Cet événement a naturellement incité des juges et des juristes britanniques à suspendre les ventes d'armes à Israël en raison de ses crimes de guerre et de ses graves violations du droit international.
Une autre dimension de la réflexion sur les robots tueurs

La Campagne contre les robots tueurs a exprimé ses inquiétudes, mais a précisé que ce n'est pas ce contre quoi elle milite depuis 2012. Selon elle, il s'agit d'un système de traitement de données, et la décision finale de tirer reste entre les mains de l'humain. Cependant, une de ses déclarations apporte un éclairage nouveau. Cette déclaration, publiée après l'annonce de l'affaire, indique :
« Absence de contrôle et d’implication humaine significative dans les décisions d’attaquer les cibles recommandées. »
Source : Worldpoliticsreview .
Cette déclaration utilise l’expression « absence de contrôle humain significatif », ce qui ajoute une couche de complexité supplémentaire à la question déjà controversée de l’intelligence artificielle et des robots tueurs, et offre également aux militants une nouvelle cause à défendre.
L'intelligence artificielle est généralement présentée comme une menace capable de dominer la planète et de provoquer des catastrophes , voire l'extinction de l'humanité. Mais un fait plus inquiétant encore est que les forces qui l'utilisent seront moins prudentes dans leurs choix stratégiques, ce qui les rendra moins responsables et les conduira à prendre des décisions contraires à l'éthique en temps de guerre, comme nous l'avons déjà constaté à Gaza. En fin de compte, il ne s'agit pas de robots prenant des décisions contre les humains, mais d'humains prenant des décisions robotiques sans exploiter pleinement leurs capacités cognitives dans des situations aussi critiques où la vie est en jeu. Comme le mentionne le rapport, une source déclare :
« La machine l’a fait de sang-froid. »
Source : +972mag.
Il y a aussi un autre aspect à considérer : cela peut corrompre la capacité des programmeurs à communiquer efficacement avec les systèmes d'IA, ce qui peut mener à des crimes de guerre.

