Dans le cadre d'une de ses principales initiatives visant à encourager l'adoption responsable des technologies d'IA par le gouvernement américain, la Maison Blanche a décrété la nécessité de réaliser biaisés sur les outils d'IA utilisés dans les agences gouvernementales.
Le décret présidentiel, émis par l'OMB, présente l'un des principaux axes politiques de l'administration Biden visant à minimiser les risques potentiels, notamment en matière de discrimination et d'atteintes à la vie privée.
Les agences fédérales se préparent à la surveillance et à la responsabilisation en matière d'IA
Conformément à la politique gouvernementale annoncée, les agences fédérales mettront en place des systèmes opérationnelstronafin de garantir les droits et la sécurité des citoyens. Ces systèmes devraient être opérationnels d'ici le 1er décembre, date à laquelle l'intelligence artificielle sera utilisée de manière à avoir un impact sur la vie quotidienne.
Ces mesures visent notamment à éliminer les distinctions, les atteintes à la vie privée et les divergences entre les différents secteurs, y compris la sécurité des transports, la santé et la prestation de services. Outre d'autres mesures visant à garantir un contrôle efficace, il conviendrait de nommer des responsables de l'intelligence artificielle ou de la lutte contre la criminalité et de l'application de la loi
Afin de superviser la mise en œuvre des directives de l'OMB en matière d'intelligence artificielle et d'en coordonner l'utilisation entre les différents services, des responsables de l'intelligence artificielle seront nommés. Ces responsables auront pour mission de garantir la transparence et la responsabilité des déploiements de l'intelligence artificielle au sein du gouvernement fédéral.
La vice-dent Kamala Harris a souligné que ces politiques nationales visaient à servir de modèle pour l'action mondiale, insistant sur l'importance de privilégier l'intérêt public dans l'utilisation de l'intelligence artificielle. L'administration prévoit d'embaucher au moins 100 personnes spécialisées dans l'intelligence artificielle d'ici l'été, témoignant ainsi de son engagement envers cette initiative.
Des tests rigoureux pour les systèmes à haut risque
De hauts responsables de l'administration ont indiqué que les systèmes à haut risque feront l'objet de tests rigoureux afin d'dentet d'atténuer les biais et les risques potentiels. Cette approche proactive souligne l'engagement de l'administration à garantir une utilisation responsable de l'intelligence artificielle dans les opérations gouvernementales.
En vertu des nouvelles directives, les Américains peuvent demander réparation s'ils estiment que des systèmes ont conduit à la diffusion de fausses informations ou à des décisions les concernant.
Les agences fédérales doivent publier une liste des systèmes, des évaluations des risques et des stratégies de gestion. Des dérogations peuvent être accordées pour les logiciels non conformes aux règles administratives, mais une justification doit être fournie, afin de promouvoir la transparence et la responsabilité dans le déploiement de l'intelligence artificielle.
Défis et perspectives d'avenir
Alexandra Reeve Givens, présidente dent directrice générale du Centre pour la démocratie et la technologie, a salué ces directives comme une étape importante vers une utilisation responsable de l'IA au sein des agences fédérales.
Givens a souligné l'importance de mettre en place des processus rigoureux pour évaluer l'impact potentiel des nouvelles technologies sur les individus et les communautés.
Bien que les agences fédérales utilisent l'intelligence artificielle depuis des années, une réglementation plus large de cette technologie est au point mort au Congrès. Par conséquent, l'administration Biden tire parti de la position de l'État en tant que grand utilisateur de technologies pour mettre en place des garde-fous et promouvoir une adoption responsable de l'IA.
Malgré les mesures proactives prises par l'administration, des défis persistent, notamment en ce qui concerne la perpétuation des biais dans les systèmes d'IA. Les cas de biais raciaux et d'inexactitudes dans la prise de décision par l'IA soulignent la nécessité d'une vigilance et d'une surveillance constantes lors du déploiement de l'IA.
L'obligation, imposée par la Maison-Blanche, de réaliser des tests de biais et de superviser l'utilisation de l'IA au sein des agences fédérales constitue une avancée majeure pour garantir une adoption responsable et éthique de cette technologie. En mettant en œuvre des garanties concrètes, en promouvant la transparence et en renforçant la responsabilité publique, l'administration entend maîtriser les risques potentiels tout en exploitant le potentiel transformateur de l'IA au service de la société.

