Your bank is using your money. You’re getting the scraps.WATCH FREE

Les robots tueurs ne sont pas des robots, mais des humains

Dans cet article :

  • Des robots tueurs sont déjà présents sur le terrain et prouvent leur impact dévastateur sur l'humanité.
  • Partout dans le monde, l'utilisation inconsidérée des systèmes d'IA dans les conflits armés suscite l'inquiétude.
  • Le véritable danger ne réside pas dans le robot lui-même pour le moment, mais dans la personne qui le contrôle sans prudence, voire avec de mauvaises intentions.

Les robots tueurs sont déjà déployés sur le champ de bataille et se révèlent être des armes redoutables. Il y a lieu de s'inquiéter, et même de s'inquiéter fortement. Leur potentiel meurtrier ayant été démontré lors des conflits à Gaza et en Ukraine, les conséquences pourraient être dévastatrices en cas de négligence. Le 3 avril, le magazine israélien +972 a publié un article sur l'utilisation par Israël de l'intelligence artificielle pourdentdes cibles à Gaza. 

Le système d'IA, baptisé Lavender, aurait établi des listes de personnes à abattre, notamment des membres présumés du Hamas, y compris des subalternes. On ignore la fiabilité de ces listes, mais le plus inquiétant est qu'elles auraient servi à cibler des militants chez eux, entourés de leurs familles et de nombreux civils. Le graphique ci-dessous présente le nombre de victimes et de blessés jusqu'au 15 avril.

Source : Statista .

Les algorithmes indiquent qui cibler

Comme endent le nombre élevé de victimes civiles et l'ampleur des destructions d'infrastructures suite à l'invasion israélienne de Gaza, le rapport a suscité de vives inquiétudes au sein des organisations humanitaires, des responsables gouvernementaux et de toute personne sensée à travers le monde, y compris aux États-Unis. António Guterres, Secrétaire général des Nations Unies, s'est dit « profondément préoccupé » et John Kirby, porte-parole de la Maison Blanche, a déclaré que « les États-Unis examinaient attentivement le rapport »

Voir aussi :  Zoom aborde les préoccupations relatives à la confidentialité concernant la collecte de données par l’IA dans ses conditions d’utilisation

Guterres s'est montré plus préoccupé par le sort des victimes et a déclaré :

 « Aucune décision de vie ou de mort ayant un impact sur des familles entières ne devrait être déléguée au froid calcul d'algorithmes. »

Source : Worldpoliticsreview .

Le rapport a été publié après l'dent au cours duquel Israël a pris pour cible et tué sept travailleurs humanitaires occidentaux, dont certains étaient d'anciens militaires britanniques. Cet événement a naturellement incité des juges et des juristes britanniques à suspendre les ventes d'armes à Israël en raison de ses crimes de guerre et de ses graves violations du droit international.

Une autre dimension de la réflexion sur les robots tueurs

Al Jazeera a diffusé des images de scènes à Gaza en novembre dernier, basées sur les statistiques d'OCHA. Source : Al Jazeera .

La Campagne contre les robots tueurs a exprimé ses inquiétudes, mais a précisé que ce n'est pas ce contre quoi elle milite depuis 2012. Selon elle, il s'agit d'un système de traitement de données, et la décision finale de tirer reste entre les mains de l'humain. Cependant, une de ses déclarations apporte un éclairage nouveau. Cette déclaration, publiée après l'annonce de l'affaire, indique :

« Absence de contrôle et d’implication humaine significative dans les décisions d’attaquer les cibles recommandées. »

Source : Worldpoliticsreview .

Cette déclaration utilise l’expression « absence de contrôle humain significatif », ce qui ajoute une couche de complexité supplémentaire à la question déjà controversée de l’intelligence artificielle et des robots tueurs, et offre également aux militants une nouvelle cause à défendre.

Voir aussi :  OpenAI révèle la « chaîne de pensée » du modèle o3-mini de ChatGPT pour répondre à l’engouement suscité par l’open source de DeepSeek

L'intelligence artificielle est généralement présentée comme une menace capable de dominer la planète et de provoquer des catastrophes , voire l'extinction de l'humanité. Mais un fait plus inquiétant encore est que les forces qui l'utilisent seront moins prudentes dans leurs choix stratégiques, ce qui les rendra moins responsables et les conduira à prendre des décisions contraires à l'éthique en temps de guerre, comme nous l'avons déjà constaté à Gaza. En fin de compte, il ne s'agit pas de robots prenant des décisions contre les humains, mais d'humains prenant des décisions robotiques sans exploiter pleinement leurs capacités cognitives dans des situations aussi critiques où la vie est en jeu. Comme le mentionne le rapport, une source déclare :

« La machine l’a fait de sang-froid. »

Source : +972mag.

Il y a aussi un autre aspect à considérer : cela peut corrompre la capacité des programmeurs à communiquer efficacement avec les systèmes d'IA, ce qui peut mener à des crimes de guerre.

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter .

Partager le lien :

Avertissement :  Les informations fournies ne constituent pas un conseil en investissement. Cryptopolitan décline toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous vous recommandons vivement d’effectuer vos tron dent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan