DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Les préoccupations éthiques s'intensifient concernant le rôle de Grok AI au sein du gouvernement américain

ParEnacy MapakameEnacy Mapakame
3 minutes de lecture
  • Selon certaines informations, DOGE déploie l'IA Grok dans l'ensemble des agences fédérales.
  • Cette décision a suscité des inquiétudes quant au respect de la vie privée et aux conflits d'intérêts.
  • Des craintes subsistent quant au manque de contrôle et aux risques éthiques.

Le Département de l'efficacité gouvernementale (DOGE) d'Elon Musk a discrètement déployé une version adaptée de son chatbot Grok AI dans les agences fédérales, suscitant des inquiétudes quant aux risques potentiels d'atteintes à la vie privée et de conflits d'intérêts.

Reuters a cité trois sources au sein de DOGE affirmant que l'équipe utilisait Grok pour examiner et analyser des données gouvernementales sensibles, générant des rapports et des informations à une vitesse supérieure aux méthodes traditionnelles.

DOGE enfreint l'éthique avec l'initiative Grok AI

Selon trois sources internes, les ingénieurs de DOGE ont installé des paramètres personnalisés sur Grok, un chatbot lancé fin 2023 par xAI, la société de Musk, afin d'accélérer l'analyse des données et d'automatiser la rédaction des rapports.

« Ils lui fournissent des ensembles de données gouvernementales, posent des questions complexes et obtiennent des résumés instantanés. »

Un initié.

Un autre initié a ajouté que le personnel du DOGE avait encouragé les employés du Département de la Sécurité intérieure à utiliser Grok pour des analyses internes, bien que l'outil ne soit pas officiellement approuvé par l'agence.

On ignore précisément quelles informations classifiées ou personnelles ont été téléchargées dans Grok, ni dansdentmesure le système a été entraîné sur les archives fédérales. Si des données sensibles y figurent, cette pratique pourrait enfreindre les lois fédérales sur la protection de la vie privée et les règles relatives aux conflits d'intérêts.

Cinq experts en éthique et en technologie avertissent qu'un tel accès pourrait donner aux entreprises de Musk des informations disproportionnées sur les donnéestracnon publiques et même contribuer à perfectionner Grok lui-même à des fins privées.

En théorie, tout modèle d'IA entraîné sur des ensembles de données gouvernementalesdentdoit respecter des garanties juridiques strictes. Les protocoles de partage de données impliquent généralement de multiples validations et une surveillance accrue afin d'empêcher toute divulgation non autorisée.

En contournant ces contrôles, DOGE risque d'exposer les données personnelles de millions d'Américains et de fournir à xAI une mine d'informations concrètes inaccessibles à ses concurrents.

Le DOGE affirme que sa mission est d'éradiquer le gaspillage, la fraude et les abus. Un porte-parole du DHS a déclaré à Reuters que le DOGE n'avait jamais exercé de pression sur son personnel pour qu'il adopte un outil en particulier.

« Notre priorité est l’efficacité », a déclaré le porte-parole. Cependant, deux sources affirment que, ces dernières semaines, des représentants du DOGE ont incité des divisions du DHS à tester Grok pour des tâches allant de l’analyse des dossiers d’immigration aux prévisions budgétaires, et ce, même après que le DHS a brusquement bloqué toutes les plateformes d’IA commerciales par crainte de fuites de données.

Conformément à la politique actuelle du DHS, les employés ne peuvent utiliser les chatbots commerciaux que pour des tâches non classifiées et nondent, tandis qu'une IA spécifique du DHS gère les données sensibles. Cependant, lorsque ChatGPT et d'autres ont été désactivés en mai, les avancées de DOGE se sont déroulées dans une zone grise juridique : le chatbot interne du DHS est resté opérationnel, mais Grok n'a jamais été officiellement intégré.

Musk utilise-t-il DOGE pour centraliser le contrôle ?

Au-delà du DHS, l'influence de DOGE s'étend aux réseaux du ministère de la Défense, où une douzaine d'analystes auraient été informés qu'un outil d'IA tiers surveillait leur activité. Bien que les porte-parole du ministère de la Défense aient nié que DOGE ait piloté des déploiements d'IA, des courriels et des SMS internes obtenus par Reuters laissent penser le contraire.

Les critiques voient dans ces initiatives l'illustration de la stratégie plus large de Musk visant à exploiter l'IA pour centraliser le contrôle de la bureaucratie et ensuite monétiser le flux de données qui en résulte.

« Il y a clairement anguille sous roche. »

Richard Painter, professeur d'éthique gouvernementale.

Si Musk a directement ordonné le déploiement de Grok, il pourrait enfreindre les lois pénales qui interdisent aux fonctionnaires d'influencer des décisions qui servent leurs intérêts privés.

Au cœur du débat se trouve le double rôle de Grok : à la fois chatbot accessible au public sur la plateforme X et moteur d'analyse expérimental déployé au sein des réseaux gouvernementaux. Le site web de xAI laisse même entendre que les interactions des utilisateurs pourraient être surveillées « à des fins commerciales spécifiques », suggérant ainsi que chaque requête fédérale pourrait alimenter le système d'apprentissage de Grok.

Deux employés du DOGE, Kyle Schutt et Edward Coristine, ce dernier étant connu en ligne sous le pseudonyme de « Big Balls », ont été les principaux instigateurs de l'initiative en matière d'IA. Bien qu'ils aient refusé de commenter, leurs actions s'inscrivent dans une stratégie bien définie : au cours de l'année écoulée, le DOGE a licencié des milliers de fonctionnaires de carrière, pris le contrôle de bases de données sécurisées et promu l'IA comme l'outil ultime pour une refonte bureaucratique.

Les défenseurs de la vie privée avertissent que l'intégration d'une IA non vérifiée dans des environnements de sécurité nationale à enjeux élevés est une recette pour les fuites de données, le vol d'dentet l'exploitation par des adversaires étrangers.

« Il s'agit là d'une menace à la vie privée des plus graves », déclare Albert Fox Cahn du Surveillance Technology Oversight Project.

On craint également qu'en l'absence de transparence et de garde-fous, l'expérience d'IA de DOGE ne remodèle la gouvernance fédérale des données, que le public s'en rende compte ou non.

Si vous souhaitez une approche plus sereine de la DeFi et des cryptomonnaies , sans le battage médiatique habituel, commencez par cette vidéo gratuite.

Partagez cet article
PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES