DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

La présentation de Microsoft et d'OpenAI suscite la controverse quant à l'utilisation militaire des outils d'IA

ParBrian KoomeBrian Koome
3 minutes de lecture -
Microsoft
  • La présentation de Microsoft et d'OpenAI lors d'un séminaire au Pentagone a suscité une vive controverse sur le potentiel militaire de l'IA.
  • OpenAI s'oppose à l'utilisation militaire de ses outils, contrairement à la proposition de Microsoft, soulevant ainsi des préoccupations éthiques.
  • L'intégration de l'IA dans les opérations militaires suscite des débats éthiques et juridiques, exigeant des directives plus claires.

Le mois dernier, lors du séminaire sur l'intelligence artificielle militaire organisé par le département de la Défense américain, Microsoft et OpenAI ont présenté leurs solutions, alimentant le débat sur les applications militaires potentielles de l'IA. Cet événement, qui s'est tenu en octobre 2023, a proposé des démonstrations de produits axées sur les applications pour le Pentagone, notamment le générateur d'images DALL-E d'OpenAI.

La proposition de Microsoft pour l'intégration militaire

L'outil principal présenté par Microsoft était un générateur d'images appelé DALL-E, susceptible de trouver des applications dans les systèmes de gestion de combat les plus récents. Ces systèmes très complets, essentiels à la planification militaire, offrent à tous les commandants une vue d'ensemble des champs de bataille depuis une position unique. Ils facilitent également la coordination et le contrôle des mouvements lors de diverses opérations, le choix des cibles pour l'artillerie et les frappes aériennes, etc. La proposition de Microsoft prévoyait l'utilisation de DALL-E pour optimiser les systèmes logiciels de commandement et de contrôle et ainsi atteindre leurs objectifs d'efficacité et de performance.

OpenAI, contrairement à Microsoft, a pris ses distances avec la présentation d'EuroDIG 2019. L'organisation a indiqué n'avoir participé à aucune conférence et n'avoir vendu aucun produit au ministère tchèque de la Défense. Liz Bourgot, attachée de presse d'OpenAI, a informé le public que l'entreprise s'oppose à toute utilisation de ses outils par les forces armées, car cela pourrait entraîner des activités susceptibles de causer des dommages corporels. Même après la mise en œuvre de l'offre de Microsoft, Bourgot a continué de considérer OpenAI comme quelque peu malhonnête quant à toute collaboration avec les agences de défense pour l'utilisation de sa technologie à des fins militaires.

Précisions de Microsoft

Grâce au soutien de Microsoft, le Pentagone pouvait déjà utiliser DALL-E pour des logiciels de formation et de simulation plus réalistes au sein des forces armées. L'entreprise a toutefois démenti cette idée, le projet n'ayant finalement pas abouti. Microsoft a précisé que les exemples présentés étaient le fruit d'échanges avec ses clients sur leurs possibilités d'utilisation du nouveau produit. Par ailleurs, la société a stipulé que toute utilisation des outils OpenAI fournis à Microsoft par une équipe du Pentagone devait faire l' defide règles d'utilisation et de contrôle définies conjointement par le Pentagone et Microsoft.

La récente mise à jour du code de conduite d'OpenAI a supprimé les exclusions explicites concernant l'utilisation de sa technologie avancée dans le domaine militaire et pour la guerre. Cette accusation a encore davantage complexifié la question éthique de l'utilisation de l'IA dans les applications militaires. Par ailleurs, OpenAI a maintenu sa position ferme quant à l'utilisation de ses outils pour toute activité préjudiciable, mais la suppression de ces exigences laisse en suspens la question des restrictions et conditions applicables à l'utilisation de l'IA dans le domaine de la défense.

Discussions en cours et considérations éthiques

La divulgation d'un brevet Microsoft concernant cette approche et l'explication par OpenAI de ses normes et procédures éthiques ont profondément bouleversé le paysage de l'industrie technologique, ainsi que les préoccupations des décideurs politiques, désormais s'interrogeant sur les limites éthiques de l'intelligence artificielle. L'intégration de l'IA dans les processus militaires soulève des questions morales complexes et implique des réflexions juridiques, exigeant l'élaboration de procédures plus rigoureuses pour la création et le déploiement des systèmes d'IA.

Avec les progrès des solutions d'IA, les considérations éthiques s'accentuent, notamment dans des secteurs essentiels à la souveraineté nationale, comme la protection du pays. La présentation de Microsoft et d'OpenAI lors du séminaire du Département de la Défense américain souligne la volonté croissante d'adopter l'IA pour appuyer les opérations militaires. Malgré certains avantages, des inquiétudes subsistent quant aux conséquences de ces applications et aux enjeux éthiques liés à leur intégration. Il est donc nécessaire de les prendre en compte et d'examiner attentivement comment elles sont intégrées aux opérations militaires.

Cet article a initialement paru sur Yahoo.

Les plus grands experts en cryptomonnaies lisent déjà notre newsletter. Envie d'en faire partie ? Rejoignez-les!

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES