Chargement...

Les robots tueurs ne sont pas des robots, mais des humains

TL; DR

  • Les robots tueurs sont déjà présents sur le terrain et prouvent leur impact dévastateur sur l'humanité.
  • Partout dans le monde, les gens s’inquiètent de l’utilisation imprudente des systèmes d’IA dans les guerres.
  • Le véritable danger n’est pas le robot pour le moment, mais la personne qui le contrôle sans prudence ou peut-être avec de mauvaises intentions.

Les robots tueurs sont déjà sur le champ de bataille et se révèlent être des armes plutôt destructrices. Nous devrions être inquiets, voire même très inquiets. Comme ils ont prouvé leur potentiel meurtrier dans les guerres à Gaza et en Ukraine, les conséquences pourraient être dévastatrices s’ils sont traités avec négligence. Le 3 avril, le magazine +972, une publication israélienne a publié un rapport sur l'utilisation par Israël de l'IA pour dent des cibles à Gaza.  

Le système d’IA s’appelle Lavender et aurait établi des listes d’assassinats de membres présumés du Hamas, y compris ceux travaillant dans les rangs inférieurs. Nous n'avons aucune idée de l'exactitude de ces listes, mais le fait le plus inquiétant est qu'elles ont été utilisées pour cibler les militants même s'ils se trouvaient chez eux avec leurs familles, leurs enfants et de nombreux civils à proximité. Le tableau ci-dessous montre le nombre de victimes et de blessés jusqu'au 15 avril.

Source : Statista .

Les algorithmes indiquent qui cibler

Comme le dent le nombre élevé de morts civiles et la destruction massive des infrastructures après l’invasion de Gaza par Israël, le rapport a suscité de sérieuses inquiétudes parmi les sociétés humanitaires, les responsables gouvernementaux et toutes les personnes sensées dans le monde et aux États-Unis. Antonio Guterres, secrétaire général des Nations Unies, s'est déclaré « profondément troublé » et John Kirby, porte-parole de la Maison Blanche, a déclaré que « les États-Unis examinaient le rapport de près ».

Guterres s'est montré plus préoccupé par les victimes et a déclaré :

 « Aucune partie des décisions de vie ou de mort qui affectent des familles entières ne devrait être déléguée au calcul froid des algorithmes. »

Source : Revue de politique mondiale .

Le rapport a été publié après l' dent au cours duquel Israël a ciblé et tué sept travailleurs humanitaires occidentaux, dont certains étaient d'anciens militaires britanniques. Cela a bien sûr incité les juges et les avocats de toute la Grande-Bretagne à arrêter les ventes d’armes à Israël en raison de ses crimes de guerre et de ses graves violations du droit international.

Une autre dimension de la réflexion sur les robots tueurs

Al Jazeera visualise des scènes à Gaza en novembre sur la base des statistiques de l'OCHA. Source : Al Jazeera .

La Campagne pour arrêter les robots tueurs a exprimé ses inquiétudes mais a déclaré que ce n'était pas contre quoi elle faisait campagne depuis 2012, car selon elle, il s'agissait d'un système de traitement de données, et que la décision finale de tirer reste entre des mains humaines, mais une de leurs déclarations apporte une autre dimension. réfléchir au sujet de. La déclaration est intervenue après la publication de la nouvelle et disait :

« Manque de contrôle humain significatif et d’engagement impliqué dans les décisions d’attaquer les cibles recommandées. »

Source : Revue de politique mondiale .

Cette déclaration utilise le mot « manque de contrôle humain significatif », qui ajoute une autre couche de complexité à l’intelligence artificielle et aux robots tueurs déjà condamnés, et fournit également aux militants une nouvelle préoccupation à défendre.

L’intelligence artificielle est généralement présentée comme pouvant un jour s’emparer de la planète et causer des dommages catastrophiques , voire l’extinction de l’humanité. Mais un fait plus inquiétant est que les forces qui les utilisent seront moins prudentes lorsqu’elles cibleront, ce qui les rendra moins responsables, ce qui les amènera à prendre des décisions contraires à l’éthique dans des guerres comme nous l’avons déjà vu à Gaza. En fin de compte, il ne s’agit pas de robots prenant des décisions contre des humains, mais d’humains prenant des décisions robotiques sans utiliser pleinement leurs propres capacités cognitives dans des situations de vie ou de mort aussi sensibles. Comme le rapport mentionne une source,

"La machine l'a fait froidement."

Source : +972mag.

Il existe également un autre aspect : cela peut corrompre la capacité des programmeurs à communiquer efficacement avec les systèmes d’IA, ce qui aboutira à des crimes de guerre.

L'article original peut être vu ici .

Avis de non-responsabilité :  les informations fournies ne constituent pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous recommandons vivement de faire tron dent et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Aamir Cheikh

Amir est un professionnel des médias, du marketing et du contenu travaillant dans l'industrie numérique. Un vétéran de la production de contenu, Amir est maintenant un partisan enthousiaste de la crypto-monnaie, un analyste et un écrivain.

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Technologie
cryptopolite
Abonnez-vous à CryptoPolitan