Ledent chinois Xi Jinping et ledent américain Joe Biden se sont accordés, lors d'une conférence historique le mois dernier à San Francisco, sur la nécessité de « s'attaquer aux risques liés aux systèmes d'IA avancés et de renforcer la sécurité de l'IA ». Bien que les deux superpuissances se soient engagées à coopérer pour encadrer l'utilisation de l'IA par les forces armées, le manque de précisions et leurs désaccords persistants rendent cette coopération peu probable.
Naviguer dans les turbulences géopolitiques – Le défi de la réglementation de l’IA militaire
Alors que la course à la suprématie en matière d'IA dans les applications militaires s'intensifie entre la Chine et les États-Unis, des inquiétudes subsistent quant à leur capacité à dépasser les rivalités géopolitiques et à gérer efficacement les risques liés aux systèmes d'IA avancés. Soulignant la nécessité de réglementer l'utilisation militaire de l'IA, les dirigeants des deux pays n'ont fourni aucune précision concrète lors de leur récent sommet, laissant la communauté internationale s'interroger sur l'étendue de leur engagement.
La collaboration de 2019 entre la Chine, les États-Unis et 96 autres nations sur des lignes directrices relatives aux systèmes d'armes létales autonomes (SALA) dotés d'intelligence artificielle souligne la reconnaissance commune de la nécessité de maintenir la responsabilité humaine dans leur utilisation. Cependant, le caractère non contraignant de ces lignes directrices et l'absence de deficommune des SALA constituent des obstacles importants. Guangyu Qiao-Franco, professeur adjoint spécialisé en sciences politiques et intelligence artificielle, se montre sceptique quant à la capacité des États-Unis et de la Chine à dépasser les accords existants et à collaborer efficacement. Les motivations sous-jacentes, à savoir la limitation du développement technologique et l'accroissement de l'indépendance technologique, continuent de peser sur les relations bilatérales.
Les multiples applications de l'IA dans les opérations militaires soulèvent des inquiétudes quant à la minimisation de son impact sur les populations civiles. Neil Davison, conseiller scientifique et politique principal au Comité international de la Croix-Rouge, souligne la nécessité d'une réglementation axée sur des applications spécifiques de l'IA plutôt que sur des principes généraux. La reconnaissance d'images pour l'dentde cibles, l'analyse de données pour la prise de décision sur le champ de bataille et le risque de cyberattaques pilotées par l'IA constituent autant de défis qui exigent des cadres réglementaires adaptés.
Vulnérabilité mutuelle – Un catalyseur potentiel de coopération
L'absence de deficlaire des systèmes d'armes létales autonomes complique les efforts visant à les réglementer ou à les interdire par le biais de traités internationaux. Des clivages apparaissent entre pays développés et pays en développement, les États les plus riches plaidant pour des restrictions defiafin de permettre le développement d'armes à intelligence artificielle précises et stables. La position singulière de la Chine, qui met l'accent sur son rôle de porte-parole des pays du Sud, constitue un défi, car elle investit massivement dans la recherche en IA tout en défendant une defirestrictive des systèmes d'armes létales autonomes.
La vulnérabilité mutuelle découlant du déploiement de systèmes d'IA militaires pourrait inciter la Chine et les États-Unis à établir des réglementations contraignantes. Des rencontres informelles entre les deux pays, notamment des discussions entre le Centre pour la sécurité et la stratégie internationales de l'Université Tsinghua et la Brookings Institution de Washington, témoignent d'une volonté d'engager un dialogue sur l'IA. Lora Saalman, chercheuse principale à l'Institut international de recherche sur la paix de Stockholm (SIPRI), suggère qu'une déclaration conjointe sino-américaine sur l'importance du contrôle humain dans la prise de décision en matière nucléaire pourrait constituer un point de départ viable.
Perspectives d'avenir concernant la gestion des risques liés à l'IA dans les projets militaires mondiaux
Alors que la Chine et les États-Unis s'efforcent de maîtriser les risques liés à l'IA , une question demeure : ces puissances mondiales peuvent-elles surmonter leurs divergences géopolitiques et établir un cadre réglementaire commun et contraignant pour l'application militaire de l'IA ? Les difficultés liées à defi des termes, les divergences de points de vue sur les systèmes d'armes létaux autonomes (SALA) et le rythme rapide des progrès technologiques en matière d'IA constituent des obstacles considérables. Pourtant, face à cette vulnérabilité mutuelle mise en lumière, une lueur d'espoir subsiste : des efforts de collaboration pourraient émerger et façonner l'avenir d'une utilisation responsable de l'IA dans le domaine militaire. Ces nations parviendront-elles à trouver un terrain d'entente et à montrer la voie en élaborant une réglementation efficace, ou les tensions géopolitiques continueront-elles d'entraver les progrès dans ce domaine crucial ?

