Le Secrétaire général de l'ONU, M. Slotto António Guterres, se dit profondément préoccupé par les informations selon lesquelles Israël se serait renseigné sur l'utilisation de l'intelligence artificielle pour surveiller une cible à Gaza. Ces révélations, publiées par le magazine israélien +972, invitent à repenser les modes de fonctionnement des forces armées et soulèvent d'importantes questions relatives à l'implication de l'IA dans les conflits actuels.
L'intelligence artificielle dans la guerre, telle que perçue par l'ONU, devient une question urgente
Au départ, son inquiétude portait sur le recours délibéré à l'intelligence artificielle par l'armée israélienne pour bombarder des zones civiles et des centres urbains. Le Secrétaire général a souligné les dangers liés à la dépendance des systèmes à des algorithmes pour des décisions cruciales ayant un impact considérable sur la vie des civils. À travers les propos du recteur, on perçoit l'importance croissante, à l'échelle mondiale, des questions éthiques et juridiques liées à l'utilisation de l'IA (intelligence artificielle) en zone de conflit, avec une attention particulière portée à la responsabilité et à la sécurité des combattants.
Le rapport +972 fournit plusieurs détails clés
L'article de +972 concluait que, malgré l'application de ces technologies d'IA dans les combats au sein de la bande de Gaza, la prise de décision concernant les cibles se faisait avec une intervention humaine relativement faible. Dans certains cas, les décisions étaient prises en quelques secondes, comme le démontre une évaluation par IA considérée comme une preuve suffisante pour justifier une action contre la cible en seulement 20 secondes. Une telle prise en compte à court terme soulève des interrogations quant à la pertinence du processus d'dent. Il est rapporté ici que l'approche adoptée consiste à imputer la culpabilité à un grand nombre de Gazaouis en tant que cibles potentielles, ce qui a permis une intervention humaine minimale et une politique supposément flexible face aux dommages de naturedent.
La reconnaissance par Israël de ses erreurs
Dans une déclaration remarquable, Israël a reconnu une série d'erreurs ayant conduit à la mort tragique de sept travailleurs humanitaires, erreurs qui les ont impliqués dans des opérations du Hamas à Gaza, opérations initialement attribuées à des membres armés du groupe. Ces aveux ne font que refléter les catastrophes engendrées par la guerre technologique, les difficultés et les erreurs commises durant le conflit, notamment dans les zones de guerre densément peuplées. Un tel cas souligne le rôle crucial d'une supervision rigoureuse et d'une obligation de rendre des comptes lors de l'utilisation d'applications d'intelligence artificielle sur le champ de bataille.
L'intégration de l'IA dans les stratégies militaires est un phénomène remarquable qui influence considérablement la conduite et la régulation des guerres. La précision du ciblage et l'efficacité sont des avantages indéniables, l'intelligence artificielle (IA) en temps de guerre reposant sur des algorithmes. Cependant, les questions morales, juridiques et humanitaires soulevées par l'utilisation d'un ordinateur comme « système de renseignement » et « outil de décision » sont complexes et sources de controverses. Le cas de Gaza, qui illustre les dilemmes liés à l'utilisation de l'intelligence artificielle dans les conflits armés, met en lumière un large éventail de problématiques, allant des progrès technologiques à l'équilibre actuel entre la protection des civils, la vigilance humaine et les impératifs de la guerre.
Article originaldentde : https://www.jamaicaobserver.com/2024/04/05/un-chief-deeply-troubled-reports-israel-using-ai-idify-gaza-targets/

