Caitlin Kalinowski, l'ancienne responsable de la robotique chez OpenAI, a démissionné après un peu plus d'un an au sein de l'entreprise. Elle a invoqué des craintes quant à l'utilisation potentielle des outils d'IA de l'entreprise par l'armée américaine à des fins de surveillance intérieure et pour des systèmes automatisés et ciblés intégrés à l'armement américain.
Caitlin Kalinowski, responsable de l'ingénierie matérielle et robotique chez OpenAI, a quitté l'entreprise après y avoir travaillé depuis novembre 2024. Elle a annoncé sa démission le 7 mars, invoquant des inquiétudes concernant un accord conclu entre OpenAI et le département américain de la Défense en février.
L'armée américaine utilisera l'IA pour la surveillance intérieure, affirme Kalinowski
J'ai démissionné d'OpenAI. Je suis très attaché à l'équipe de robotique et au travail que nous avons accompli ensemble. Ce n'était pas une décision facile. L'IA a un rôle important à jouer dans la sécurité nationale. Mais la surveillance des citoyens américains sans contrôle judiciaire et l'autonomie létale sans autorisation humaine sont…
– Caitlin Kalinowski (@kalinowski007) 7 mars 2026
Selon Kalinowski, sa démission fait suite à la volonté du département de la Défense américain d'utiliser l'intelligence artificielle pour surveiller les citoyens américains sans contrôle judiciaire. L'ancienne employée d'OpenAI a écrit sur X que l'IA a un rôle crucial à jouer dans la sécurité nationale.
Elle a expliqué que le département américain de la Défense entendait utiliser l'IA pour la surveillance et les armes autonomes, une décision qu'elle désapprouve. Elle a déclaré que sa décision « était une question de principe, et non de personnes » et qu'elle était fière du travail accompli par l'équipe d'OpenAI durant son passage dans l'entreprise.
En février, le Pentagone américain a intensifié ses discussions avec les principales entreprises d'IA concernant le déploiement de modèles automatisés sur des systèmes classifiés. Cryptopolitan Le Pentagone aurait intensifié les discussions avec Anthropic et OpenAI afin d'intégrer des outils d'IA aux réseaux militaires classifiés .
Emil Michael, le directeur de la technologie du Pentagone, a déclaré lors d'une réunion à la Maison Blanche avec des responsables technologiques que l'armée souhaite que les modèles d'IA fonctionnent sur les réseaux classifiés et non classifiés sans limitations ni restrictions.
Les négociations entre le gouvernement américain et Anthropic sont au point mort, ses dirigeants ayant fermement refusé d'utiliser leur technologie pour des opérations de surveillance intérieure ou des systèmes de ciblage d'armes autonomes. Fin février, l'entreprise a rejeté defi ultimatum du Pentagone exigeant la suppression des mesures de sécurité relatives à l'intelligence artificielle.
Le PDG d'Anthropic, Dario Amodei, a maintenu sa position, refusant que la technologie de l'entreprise soit utilisée lors d'expéditions militaires. En réponse, Trump a ordonné à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic fin février.
OpenAI a imposé des restrictions au déploiement militaire de l'IA
Le ministère de la Défense a conclu un accord avec OpenAI qui a depuis suscité des critiques. Sam Altman a indiqué que cet accord semblait opportuniste et a précisé que l'entreprise avait imposé des restrictions quant à l'utilisation de ses outils d'IA dans les opérations militaires.
Cependant, Kalinowski conteste la décision, arguant que l'annonce a été précipitée, sans les garde-fous nécessaires. Elle ajoute que son départ est motivé par des préoccupations de gouvernance, trop importantes pour être traitées à la légère.
OpenAI a confirmé le départ de Kalinowski dans un communiqué, mais a affirmé que les liens de l'entreprise avec les ministères de la Défense ouvrent la voie à une utilisation responsable des outils d'IA dans le domaine de la sécurité nationale.
En février, OpenAI a annoncé le déploiement d'une version personnalisée de ChatGPT sur la plateforme d'IA sécurisée du département de la Guerre, GenAI.mil. L'entreprise a souligné que ses collaborations avec les ministères de la Défense et des Affaires étrangères s'expliquent par le rôle crucial de l'IA dans la protection des populations et la prévention des conflits.
Les tensions entre le gouvernement américain et les entreprises spécialisées en IA concernant le développement de l'IA militaire ont également entraîné le départ de nombreux chercheurs de ces entreprises. Un chercheur d'Anthropic, parmi les plus éminents en matière de sécurité, a démissionné en déclarant : « Le monde est en danger. »
Un autre chercheur d'OpenAI a également démissionné, affirmant que la technologie de l'IA a une capacité de contrôle des êtres humains que les développeurs ne peuvent ni comprendre ni empêcher.
Zoë Hitzig, ancienne chercheuse chez OpenAI, a également quitté l'entreprise le 11 février. Elle a démissionné le jour même où OpenAI annonçait avoir commencé à tester des publicités sur son modèle LLM ChatGPT. Elle a affirmé que l'entreprise d'IA commettait la même erreur que Facebook.
Hitzig a exprimé ses inquiétudes quant au fait que le rôle unique de ChatGPT en tant que confident pour des révélations profondément personnelles (craintes médicales, problèmes relationnels, croyances religieuses) rend le ciblage publicitaire particulièrement risqué.

