Microsoft interdit désormais aux forces de police américaines d'utiliser les services d'intelligence artificielle générative exécutés sur Azure OpenAI Service. Cette nouvelle approche, présentée dans les conditions d'utilisation mises à jour mercredi, vise à répondre au dilemme éthique croissant auquel est confrontée l'IA dans le maintien de l'ordre.
La mise à jour des politiques met en lumière des préoccupations éthiques
Les conditions révisées stipulent expressément que ces intégrations ne peuvent être utilisées « par ou pour » les services de police aux États-Unis. Cette restriction s'applique également aux modèles d'analyse de texte et de parole, soulignant ainsi Microsoft accorde à une utilisation responsable de l'IA. Par ailleurs, une clause distincte a été introduite afin d'interdire spécifiquement l'utilisation de la technologie de reconnaissance faciale en temps réel sur les caméras mobiles, y compris les caméras corporelles et les caméras embarquées, dans des environnements non contrôlés.
Microsoft interdit aux services de police américains d'utiliser son outil d'IA d'entreprise https://t.co/OxrFO5scO9
— TechCrunch (@TechCrunch) 2 mai 2024
Le déclencheur de ces mouvements pourrait sedentdans les récents progrès de l'industrie technologique. Axon, entreprise technologique réputée spécialisée dans les technologies militaires et policières, vient d'annoncer un produit utilisant le modèle Verbalizer d'OpenAI avec le générateur de texte GPT-4 pour résumer les enregistrements audio des caméras corporelles. La présence de fausses informations générées et de biais raciaux dans les données d'entraînement a été abordée afin de répondre d'emblée aux préoccupations de certains critiques.
Implications et marge d'interprétation
Bien que la politique mise à jour représente la position ferme de Microsoft, elle reste sujette à interprétation. L'interdiction du service Azure OpenAI ne concerne que la police américaine, son déploiement international étant toujours en cours. Par ailleurs, les limitations relatives à l'utilisation de la technologie de reconnaissance faciale s'appliquent exclusivement aux forces de l'ordre américaines, à l'exclusion des caméras fixes installées dans des environnements contrôlés.
Cette méthodologie équilibrée s'inscrit parfaitement dans la stratégie globale de Microsoft en matière d'IA appliquée à l'application de la loi et à la défense. Parallèlement, malgré les interdictions concernant certaines utilisations, une coopération entre OpenAI et les agences gouvernementales, dont le Pentagone est un exemple emblématique, s'est progressivement développée. Ces partenariats témoignent d'une évolution de la position d'OpenAI, tout comme de Microsoft, qui recherche des applications de l'IA dans les technologies militaires.
Engagement gouvernemental et dynamique de l'industrie
L'adoption du de Microsoft par les agences gouvernementales s'est accélérée grâce à l'intégration d'outils de conformité et de gestion supplémentaires dans Azure Government, notamment pour les forces de l'ordre. Candice Ling, vice-présidente senior dent Microsoft Federal, sera chargée d'obtenir davantage d'approbations du département de la Défense pour Azure OpenAI, démontrant ainsi l'utilité de la plateforme lors de missions urgentes.
Le domaine dynamique de l'éthique et de la réglementation de l'IA oblige les entreprises technologiques à anticiper et à réfléchir à leurs actions. En choisissant de ne pas recourir à l'IA dans les forces de l'ordre, Microsoft illustre une tendance plus générale du secteur à renforcer la responsabilité et la transparence dans le déploiement de l'IA. Lors des discussions sur la réglementation de l'IA, les fournisseurs de technologies, les décideurs politiques et les groupes militants devront collaborer pour résoudre les nouveaux enjeux éthiques.
La décision de Microsoft d'empêcher les services de police américains d'utiliser Azure OpenAI pour certains scénarios témoigne de la démarche réfléchie et ciblée de l'entreprise face aux enjeux éthiques du déploiement de l'IA. Cet amendement révèle la sincérité des décideurs politiques et la complexité de cet exercice d'équilibriste. Face à l'évolution des débats sur l'éthique de l'IA, les parties prenantes concernées devraient participer activement à un dialogue constructif afin de favoriser un développement et un déploiement responsables de l'IA.

