Plus de 600 employés de Google (GOOGL, GOOG) ont demandé lundi à Sundar Pichai de tenir le Pentagone à l'écart de l'IA de Google pour des travaux classifiés.
La lettre provenait d'employés de DeepMind et de Google Cloud, qui faisaient référence à un article de The Information selon lequel Google et le département américain de la Défense étaient en pourparlers concernant l'utilisation de Gemini au sein de systèmes classifiés.
Des employés de Google exposent de nombreuses raisons de bloquer l'accès de Gemini à des travaux secrets du Pentagone
La lettre commençait par un avertissement direct à Sundar, à qui les employés s'adressaient : « Nous sommes des employés de Google profondément préoccupés par les négociations en cours entre Google et le département américain de la Défense. En tant que spécialistes de l'IA, nous savons que ces systèmes peuvent centraliser le pouvoir et qu'ils peuvent commettre des erreurs. »
Les employés ont déclaré qu'ils estimaient que leur proximité avec la technologie leur conférait « la responsabilité de mettre en lumière et de prévenir ses utilisations les plus contraires à l'éthique et les plus dangereuses »
« Nous vous demandons de refuser de mettre nos systèmes d'IA à disposition pour des applications classifiées. Autrement, de telles utilisations pourraient se produire à notre insu, sans que nous ayons la possibilité de les empêcher », ont déclaré des employés de Google. La lettre expliquait ensuite que leur objectif était que l'IA soit au service de l'humanité, et non qu'elle contribue à des actes malveillants. Ils ont cité les armes autonomes létales et la surveillance de masse comme principales sources d'inquiétude. Ils ont également précisé que les risques allaient au-delà de ces deux domaines, car les activités classifiées peuvent masquer la réalité.
Leur argument était que si Google accepte des charges de travail militaires secrètes, les employés n'auront peut-être aucun moyen de vérifier leur utilisation, de la remettre en question ou de l'arrêter, et que la seule véritable garantie est de refuser les travaux classifiés avant la conclusion de l'accord.
Ils ont également averti qu'un mauvais choix pourrait nuire à la réputation, aux activités et à la place de Google dans le monde. Les employés ont déclaré que leur sécurité et les infrastructures critiques étaient menacées, tandis que des vies et des libertés civiles étaient déjà en danger en raison d'une mauvaise utilisation des technologies conçues par des personnes comme eux.
Le Pentagone de Trump s'impose de force pour obtenir un accès massif à l'IA pour l'armée américaine
Les dirigeants du Pentagone ont déclaré que l'armée devait être libre d'utiliser l'IA commerciale pour « tous les usages légaux ». Selon eux, cette formulation permet au gouvernement d'utiliser cette technologie dans différents cas, tout en respectant la législation américaine et les règles militaires.
Les travailleurs du secteur de l'IA estiment que cette protection est insuffisante. Leur inquiétude s'est accrue en raison des déclarations et des actions de Trump. Plus tôt ce mois-ci, ledent Donald Trump a menacé de bombarder « tous » les ponts et centrales électriques d'Iran. Des experts ont déclaré au Washington Post qu'une telle attaque violerait le droit international. Les frappes menées par son administration contre des bateaux qu'elle accuse de transporter de la drogue ont également été contestées par des spécialistes du droit international.
La lettre de Google est arrivée alors que d'autres entreprises d'IA sont déjà impliquées dans des conflits avec le Pentagone. Anthropic, la société privée à l'origine de Claude, a vu sa technologie intégrée aux systèmes militaires américains l'année dernière. Ces outils ont permis de trier les données et d'dentdes cibles potentielles.
le Pentagone a mis fin à avec Anthropic au sein du département de la Défense. L'entreprise avait tenté d'ajouter des clauses contractuellestracque son IA ne pouvait être utilisée pour la surveillance de masse ni pour des armes autonomes létales.
Anthropic et le gouvernement américain sont désormais en procès pour déterminer si cette coupure était légale. Cette affaire a attiré l'attention sur Google et OpenAI, car ces deux entreprises collaborent avec l'armée américaine.
OpenAI est une société privée, elle n'est donc pas cotée en bourse. Elle a signé un accord en février pour fournir des services d'IA destinés à des applications classifiées, peu après le retrait d'Anthropic. Sam Altman, PDG d'OpenAI, s'est ditdent que letracgouvernemental empêche toute utilisation de l'IA à des fins de surveillance de masse et d'armes autonomes létales aux États-Unis.
Google a déjà connu une telle situation. En 2018, des employés ont protesté contre un du Pentagone projetdentdes objets sur des images de drones. Des centaines de personnes ont signé une pétition contre ce projet, et Google a par la suite décidé de ne pas renouveler le contrat.
Après ce différend, Google s'est engagé à ne pas utiliser sa technologie d'IA à des fins d'armement ou de surveillance. Pourtant, ces dernières années, l'entreprise a cherché à obtenir davantage detracmilitaires. L'année dernière, Google a levé ces restrictions. En décembre, elle a signé un accord autorisant le département de la Défense à utiliser Gemini.

