Chargement...

Les tests de biais de l'IA mandatés par la Maison Blanche pour les agences fédérales

TL; DR

  • Le gouvernement impose des tests de biais pour la responsabilité de l’IA.
  • Des responsables de l’IA sont nommés pour superviser une utilisation responsable.
  • La surveillance publique garantit la transparence du déploiement de l’IA.

Dans le cadre de l’une de ses initiatives majeures visant à encourager l’adoption des technologies d’IA par le gouvernement américain selon une approche responsable, la Maison Blanche a imposé la nécessité de mener biaisés sur les outils d’IA utilisés dans les agences gouvernementales.

Le décret, publié par l'intermédiaire de l'OMB, présente l'un des principaux programmes politiques de l'administration Biden, conçu pour contenir le moins de risques possibles, y compris la discrimination, ainsi que les atteintes à la vie privée.

Les agences fédérales se préparent à la surveillance et à la responsabilité de l'IA

Comme annoncé dans la politique gouvernementale, les agences fédérales mettront en place des systèmes opérationnels tron pour se conformer aux droits et à la sécurité des personnes. Ils devraient être mis en œuvre d’ici le 1er décembre, lorsque l’intelligence artificielle sera appliquée de manière à pouvoir influencer la vie des gens.  

Ces mesures visent notamment à éliminer les distinctions, les atteintes à la sphère privée et les divergences entre différents secteurs, notamment la sécurité des transports, les soins de santé et la prestation de services. Des chefs de l'intelligence artificielle ou de la criminalité et de l'application des lois devraient être nommés en plus d'autres mesures visant à assurer la surveillance.

Pour superviser la manière dont les conseils en matière d'intelligence artificielle de l'OMB sont exécutés et coordonner leur utilisation dans les différents bureaux, des responsables de l'intelligence artificielle seront nommés. Ces fonctionnaires participeront à la création et à la garantie que les déploiements d'intelligence artificielle au sein du gouvernement fédéral sont transparents et responsables.

La vice- dent Kamala Harris a souligné l’intention de ces politiques nationales de servir de modèle pour une action mondiale, soulignant l’importance de donner la priorité à l’intérêt public dans l’utilisation de l’intelligence artificielle. L'administration prévoit d'embaucher au moins 100 employés spécialisés dans l'intelligence artificielle d'ici l'été, soulignant ainsi son engagement dans cette initiative.

Tests rigoureux pour les systèmes à haut risque

Les hauts responsables de l'administration ont souligné que les systèmes à haut risque seront soumis à des tests rigoureux pour dent et atténuer les biais et les risques potentiels. Cette approche proactive souligne l'engagement de l'administration à garantir une utilisation responsable de la technologie de l'intelligence artificielle dans les opérations gouvernementales.

En vertu des nouvelles directives, les Américains peuvent demander réparation s’ils pensent que les systèmes ont conduit à de fausses informations ou à de fausses décisions qui les affectent. 

Les agences fédérales doivent publier une liste de systèmes, d'évaluations des risques et de stratégies de gestion. Des dérogations peuvent être accordées pour les logiciels qui ne respectent pas les règles administratives, mais une justification doit être fournie, favorisant la transparence et la responsabilité dans le déploiement de l'intelligence artificielle.

Défis et orientations futures

Alexandra Reeve Givens, présidente dent directrice générale du Centre pour la démocratie et la technologie, a salué ces orientations comme une étape importante vers une utilisation responsable de l'IA au sein des agences fédérales.

Givens a souligné l'importance de mettre en place des processus rigoureux pour évaluer l'impact potentiel des nouvelles technologies sur les individus et les communautés.

Alors que les agences fédérales utilisent la technologie de l’IA depuis des années, une réglementation plus large de l’IA est bloquée au Congrès. En conséquence, l’administration Biden tire parti de la position du gouvernement en tant que client technologique majeur pour établir des garanties et promouvoir l’adoption responsable de l’IA.

Malgré les mesures proactives prises par l’administration, des défis demeurent, notamment concernant la perpétuation des préjugés dans les systèmes d’IA. Les cas de préjugés raciaux et d’inexactitudes dans la prise de décision basée sur l’IA soulignent la nécessité d’une vigilance et d’une surveillance continues dans le déploiement de l’IA.

Le mandat de la Maison Blanche en matière de tests de biais et de surveillance de l'utilisation de l'IA dans les agences fédérales représente une étape importante vers une adoption responsable et éthique de la technologie de l'IA. En mettant en œuvre des garanties concrètes, en promouvant la transparence et en favorisant la responsabilité publique, l'administration vise à faire face aux risques potentiels tout en exploitant le potentiel de transformation de l'IA au profit de la société.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Emman Omwanda

Emmanuel Omwanda est un journaliste blockchain qui se penche en profondeur sur l'actualité du secteur, l'analyse en chaîne, les jetons non fongibles (NFT), l'intelligence artificielle (IA) et bien plus encore. Son expertise réside dans les marchés des cryptomonnaies, couvrant à la fois l’analyse fondamentale et technique.

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Technologie IA
cryptopolite
Abonnez-vous à CryptoPolitan