Récemment, l'actualité s'est concentrée sur les progrès de l'intelligence artificielle. Pourtant, l'IA existe depuis des décennies et continuera de jouer un rôle majeur dans la conduite des guerres à l'avenir, pour de nombreuses applications militaires et de défense.
Il n'y a pas que les militaires ; vous lisez peut-être ce texte sur un appareil qui repose déjà fortement sur l'intelligence artificielle ; par conséquent, vous avez probablement déjà utilisé l'IA d'une manière ou d'une autre avant même le récent engouement.
L'IA a très probablement été utilisée dans toutes les situations où vous avez payé quoi que ce soit en ligne, par exemple pour de la nourriture ou des divertissements, utilisé votre visage ou votre empreinte digitale pour déverrouiller votre téléphone, interagi avec les médias sociaux ou programmé un voyage via une application mobile.
Nous nous sommes habitués à l'IA de diverses manières, l'intégrant — souvent sans nous en rendre compte — dans notre vie quotidienne.
L'intelligence artificielle militaire existe depuis la Seconde Guerre mondiale.
Bien que les armes soient capables de prendre certaines décisions depuis la Seconde Guerre mondiale, l'intelligence artificielle leur permet désormais d'en prendre beaucoup plus et finira par les rendre courantes.
Et si une personne était agressée et que sondentétait déterminée par un logiciel de reconnaissance faciale ? Au lieu d’dentle meilleur restaurant, et si un logiciel similaire guidait les avions pour lancer une frappe aérienne sur une cible ?
À lire également : L’adoption de systèmes militaires d’IA présage-t-elle une tournure sinistre dans la guerre ?
Cela semble poser un problème majeur. La question est de savoir si les systèmes d'IA peuvent réellement prendre des décisions de vie ou de mort de manière autonome. Leur précision n'est pas parfaite et varie selon les situations, et nous savons qu'ils ne sont pas infaillibles.
Dans des zones de conflit, l'IA choisit déjà les cibles, comme à Gaza et en Ukraine. Israël aurait utilisé un système d'intelligence artificielle (IA) nommé Lavender, dont les capacités de décision humaine sont minimales, pour sélectionner des cibles potentielles, ce qui aurait entraîné un nombre important de victimes civiles, selon une enquête publiée par le média israélien +972 Magazine.
Les machines peuvent le faire froidement
L'Autriche a récemment organisé une conférence sur la réglementation des armes à intelligence artificielle afin de contrer leurs effets dévastateurs. L'IA est déjà utilisée dans des combats contre des populations et leurs habitations. Le ministre autrichien des Affaires étrangères, Alexander Schallenberg, a déclaré :
« Nous ne pouvons pas laisser passer cette occasion sans agir. Le moment est venu de nous entendre sur des règles et des normes internationales pour garantir un contrôle humain. »
Source : Reuters .
Les technologies déployées par de nombreuses armées en zones de guerre sont encore loin d'être matures et ne servent pas encore à déterminer les cibles. Ces technologies, que nous qualifions d'intelligentes, sont loin d'égaler le cerveau d'un chat ; même les experts estiment que parvenir au niveau d'intelligence d'une souris dans les années à venir constituerait un progrès considérable.
Mais la dépendance à son égard est telle qu'elle est employée avec une brutalité telle qu'elle déshumanise aussi bien la cible que celui qui la détient. Cela soulève de graves questions d'ordre moral, humanitaire et éthique.
En tant qu'êtres humains, nous avons des griefs, mais pour éviter la souffrance d'un soldat, les forces armées peuvent désormais utiliser cette nouvelle arme, comme le mentionne le magazine +972, citant une source secrète des services de renseignement qui a déclaré :
« La machine l’a fait froidement. Et cela a rendu la tâche plus facile. »
Source : +972 Magazine .
Est-il vraiment important que les gens participent au processus de sélection ? Interrogé par un autre utilisateur de Lavender, il a expliqué qu'à ce stade, il consacrait 20 secondes à chaque cible et en réalisait des dizaines chaque jour. En effet, mis à part le fait qu'il s'agissait d'une certification officielle, sa contribution humaine n'avait aucune valeur ajoutée. C'était un gain de temps considérable.
Il est facile de comprendre à quel point nous, les humains, abandonnons volontairement notre pouvoir de décision aux machines.
Les accords internationaux sont encore loin d'être conclus.
Les États-Unis ont entrepris des démarches réglementaires par le biais de la Déclaration politique sur l'utilisation militaire responsable de l'intelligence artificielle et de l'autonomie. L'Australie est également signataire de cette déclaration. Un accord international reste cependant encore lointain.
La déclaration mentionne qu'il est essentiel de garantir des mesures de protection, car elle stipule que,
« Les États devraient mettre en œuvre des garanties appropriées pour atténuer les risques de défaillance des capacités d’IA militaire, telles que la capacité de détecter et d’éviter les conséquences imprévues et la capacité de réagir, par exemple en désengageant ou en désactivant les systèmes déployés, lorsque ces systèmes présentent un comportement imprévu. »
Source : Département d'État américain .
Le document souligne également que l'utilisation de l'IA dans le domaine militaire « peut et doit être » éthique, tout en renforçant la sécurité internationale. Mais sur le terrain, la réalité est tout autre, comme nous l'avons vu précédemment.
La détection et la localisation du personnel militaire ennemi constituent une application de ces systèmes ; compte tenu des innovations fulgurantes en cours, nous n'avons aucune idée des autres utilisations militaires complexes qui pourraient en découler.
À lire également : Kaspersky dément les accusations d’aide à l’armée russe
Le débat visant à exclure l'IA de la guerre ne semble pas être une option à l'heure actuelle, mais les législateurs du monde entier et les gouvernements impliqués dans des conflits doivent prendre en compte les limites de l'IA et les ravages potentiels qu'elle pourrait causer à l'humanité.
Actuellement, les politiques publiques peinent à suivre le rythme de l'innovation, et il est impératif d'y remédier, au moins en partie, car on ne peut se contenter de constater que l'IA a encore fait 1 000 victimes. Que nous réserve l'avenir ? Nous l'ignorons encore, mais la question de savoir quelles mesures les décideurs politiques devraient prendre n'est pas réservée aux seuls génies.
Reportage Cryptopolitan par Aamir Sheikh

