Ces derniers jours, un haut responsable américain a réaffirmé que toutes les puissances nucléaires doivent maintenir un haut niveau de responsabilité humaine dans la supervision de leurs armes nucléaires. Paul Dean, secrétaire adjoint par intérim au sein du département d'État chargé du contrôle des armements, de la dissuasion et de la stabilité, a déclaré qu'il est extrêmement risqué de négliger le risque de défaillance des machines en période de crise, où une simple erreur pourrait engendrer des dégâts plus importants encore que ceux subis par les machines elles-mêmes. Il a notamment évoqué l'accord du Conseil de sécurité des Nations unies sur l'influence fondamentale du facteur humain dans la prise de décision relative à la gestion des armes stratégiques.
Le moment Oppenheimer de l'IA
Les risques liés à l'utilisation de l'intelligence artificielle comme arme ont dépassé le simple constat d'Oppenheimer, signe évident que le dilemme éthique auquel était confronté J. Robert Oppenheimer, le père de la bombe atomique, domine désormais le débat sur le rôle de l'IA dans les conflits modernes. Il y a quelques semaines, lors d'une formation collaborative réunissant plus d'une centaine de nations du monde, la nécessité d'une intégration rigoureuse de l'IA dans les systèmes de réglementation des technologies militaires figurait parmi les principaux points à l'ordre du jour. Le ministre autrichien des Affaires étrangères, Alexander Schallenberg, a avancé l'idée que, dans le domaine militaire, l'IA n'influence pas la capacité des humains à prendre des décisions cruciales et que son impact sur les technologies militaires est aussi déterminant que celui de la poudre à canon.
Armes autonomes et diplomatie internationale
La conférence sur les systèmes d'armes autonomes à Vienne a également été l'occasion de débattre de l'intégration de l'IA dans les stratégies militaires et de l'imminence d'un système de traités internationaux pour encadrer ces technologies. Malgré une forte implication de l'IA dans les opérations militaires, aucun cadre juridique international concret ne régit encore les systèmes d'armes létales autonomes (SALA). La conférence était dédiée au pays qui accueillera les prochaines négociations susceptibles d'aboutir à l'élaboration d'un tel traité.
Évolutions militaires mondiales et IA
Un cas récent illustre certaines applications légitimes de l'IA à des fins militaires. Le problème mis en lumière est celui de Lavender, nom donné (fictif) à un système d'IA par un espion israélien. Ce système a été créé dans le but de collecter d'importantes quantités de données liées à des suspects (fictifs) et à des cibles potentielles. Par ailleurs, l'armée ukrainienne a également commencé à développer des drones anti-drones dotés d'IA, ce qui améliorera la précision et la sécurité, témoignant de l'accélération de la transition vers les technologies militaires automatisées. En parallèle, le dialoguematic se poursuit, l'administration Biden veillant notamment à maintenir des échanges avec la Chine.
L'enjeu ne se limite pas aux questions à court terme liées aux politiques en matière d'armes nucléaires, mais englobe également le développement rapide de l'IA. Ces réflexions visent à préparer le terrain pour appréhender les risques posés par l'IA, reconnaissant ainsi son rôle ambivalent dans le domaine technologique. Par conséquent, face à l'intégration croissante de l'IA dans le contrôle à distance des armées, la nécessité de créer un système de traités internationaux pour encadrer ces technologies est plustronque jamais. Le dialogue et les négociations en cours constituent des étapes essentielles pour que les robots utilisés à des fins de protection et de guerre soient également placés sous contrôle humain.

