L'Autriche a déclaré lundi que de nouveaux efforts devraient être entrepris afin de réglementer l'intelligence artificielle, qui pourrait potentiellement mener à des systèmes de mise à mort autonomes et à des armes dotées d'IA, autrement dit des robots tueurs.
L'Autriche accueille une conférence consacrée à la réglementation des armes à intelligence artificielle
Ces remarques ont été faites lors de la conférence « L’humanité à la croisée des chemins : systèmes d’armes autonomes et le défi de la réglementation », organisée par le ministère fédéral autrichien des Affaires européennes et internationales à Vienne, qui a débuté hier et se poursuit jusqu’à aujourd’hui.
Avec les progrès rapides de l'intelligence artificielle, les systèmes d'armes autonomes capables de tuer sans intervention humaine deviennent une réalité, et de nombreux pays plaident pour une action urgente sur ce problème.
Alexander Schallenberg, ministre autrichien des Affaires étrangères, a déclaré :
« Nous ne pouvons pas laisser passer cette occasion sans agir. Le moment est venu de nous entendre sur des règles et des normes internationales pour garantir un contrôle humain. »
Source : Reuters.
Il s'exprimait lors d'une réunion d'organisations internationales et non gouvernementales et d'envoyés de 143 pays. Alors que les discussions sur ce défi sont quasiment au point mort au niveau mondial, comme l'a indiqué l' agence de presse , il a également déclaré dans son discours d'ouverture à la conférence :
« Assurons-nous au moins que la décision la plus profonde et la plus lourde de conséquences, celle de savoir qui vit et qui meurt, reste entre les mains des humains et non des machines. »
Étant donné que très peu de résultats concrets ont découlé des années de négociations aux Nations Unies, un certain nombre de participants à la conférence de Vienne ont déclaré que le temps d'agir leur échappe.
L'IA peut confondre la tête d'une personne avec un ballon de football
Ladent du Comité international de la Croix-Rouge, Mirjana Spoljaric, a déclaré qu'il était important d'agir très rapidement sur cette question, lors d'une table ronde à la conférence.

Spoljaric a également déclaré que nous ne devrions pas confier la responsabilité de la violence ou le contrôle de la violence aux machines et aux algorithmes, car nous ne voulons pas voir de tels revers se multiplier, car ce que nous constatons déjà dans divers scénarios violents, ce sont ce qu'elle a appelé des « échecs moraux face à la communauté internationale »
Des diplomates ont déclaré que l'IA s'était déjà infiltrée sur les champs de bataille , comme on l'a observé lors de la guerre en Ukraine, où les drones sont conçus de manière à trouver leur direction et à atteindre leur cible même lorsque des systèmes de brouillage de signaux coupent leur liaison avec les autres opérateurs.
L'armée israélienne a utilisé des systèmes d'intelligence artificielle pourdentdes cibles à Gaza, ont déclaré les États-Unis en examinant les informations relayées par les médias. Ironie du sort, ces mêmes États-Unis ont continué à fournir des armes à Israël, accusé d'en faire un usage imprudent et d'avoir tué des civils innocents.
Dans son discours d'ouverture, Jaan Tallinn, investisseur dans le secteur technologique et ingénieur logiciel, a déclaré :
« Nous avons déjà constaté que l'IA commet des erreurs de sélection, à la fois importantes et mineures. »
Source : Reuters.
Il évoquait les difficultés que rencontre encore l'IA, par exemple la confusion entre le crâne chauve d'un arbitre et un ballon de football, ou les accidents mortels causés par des voitures autonomes qui ne reconnaissent pas les passages piétons. Le plus inquiétant est que des pays comme Israël utilisent cette technologie, encore loin d'être mature, pourdentdes cibles parmi des milliers de civils et les éliminer. Tallinn a également souligné la nécessité d'aborder avec prudence la question de la précision de ces systèmes.

