Chargement...

Le Colorado mène la charge dans la réglementation de l’IA pour lutter contre la discrimination

Dans cet article :

  • Le Colorado est leader dans la réglementation de l’IA qui influence les décisions en matière d’embauche, de logement et de médecine.
  • La législation du Colorado et six projets de loi similaires obligent les organisations à évaluer les biais potentiels des systèmes d'IA.
  • Les entreprises utilisant l’IA dans leurs opérations sont tenues d’informer leurs clients chaque fois que des décisions importantes les concernant sont prises par l’IA.

Le Colorado a pris l'initiative de réglementer les systèmes d'intelligence artificielle qui influencent les décisions en matière d'embauche, de logement et de médecine.  Sept projets de loi ont été proposés, dont un a déjà été adopté et approuvé, visant à réglementer l'approche biaisée d'IA dans la prise de décisions importantes.

Lisez également : Création d'un comité consultatif national sur l'IA pour aborder la réglementation de l'IA

Malgré l'opposition, le gouverneur du Colorado, Jared Polis, a signé le projet de loi avec hésitation vendredi. Ce projet de loi oblige les organisations à évaluer le risque de discrimination liée à l'IA, à établir des programmes de surveillance et à informer les consommateurs si l'IA est impliquée dans la prise de décision.

Le Colorado adopte à contrecœur la loi sur la responsabilité de l’IA

Le projet de loi du Colorado, semblable à celui de Washington et du Connecticut, n'a pas été bien accueilli par les groupes de défense des droits civiques, l'industrie technologique, les législateurs prudents et les gouverneurs inquiets. Ces projets de loi visent à lutter contre les préjugés liés à l’IA dans des domaines critiques comme l’emploi, le logement et les soins de santé.

Source : Yahoo News Royaume-Uni

Les appels à une réglementation ont suscité beaucoup de résistance en raison de la complexité de la technologie et de la possibilité de limiter son développement. Le gouverneur Polis a également exprimé ses inquiétudes concernant le projet de loi, soulignant qu'il ne devrait pas étouffer le développement de l'IA.  

Le projet de loi impose des évaluations de biais en matière d'IA et des notifications aux clients

La législation du Colorado, ainsi que les six projets de loi similaires, exigent que les organisations évaluent les biais potentiels des systèmes d'IA. Certaines entreprises utilisant l’IA dans leurs opérations sont tenues d’informer leurs clients chaque fois que des décisions importantes les concernant sont prises par l’IA. Cette approche vise à améliorer la transparence et la responsabilité des applications d’IA.

Lisez aussi : La réglementation de l’IA suscite un débat entre les géants de la technologie et les régulateurs

Cette initiative intervient dans le cadre de discussions législatives plus approfondies, avec plus de 400 projets de loi liés à l'IA cette année. Ces projets de loi sont principalement centrés sur des aspects spécifiques de l’IA, tels que les deepfakes et la pornographie IA. Ces sept projets de loi ambitieux se concentrent sur la discrimination, l’une des préoccupations les plus difficiles et universelles d’IA.  

Rumman Chowdhury, spécialiste de l'intelligence artificielle au Département d'État américain, a déclaré :

"En réalité, nous n'avons aucune visibilité sur les algorithmes utilisés, s'ils fonctionnent ou non, ou si nous sommes victimes de discrimination."

La discrimination liée à l’IA se cache dans l’embauche, le logement et les soins de santé

La législation actuelle contre la discrimination ne couvre pas de manière adéquate les problèmes liés à l’utilisation de l’IA. Christine Webber, avocate spécialisée dans les droits civiques, a souligné que l'IA peut amplifier les préjugés à un niveau bien plus important que celui d'un seul décideur.

« Je dois dire que les anciens systèmes n’étaient pas non plus parfaitement exempts de préjugés ; n'importe qui ne pouvait consulter qu'un nombre limité de CV dans la journée. Ainsi, vous ne pouvez prendre qu’un nombre limité de décisions biaisées en une seule journée, et l’ordinateur peut le faire rapidement auprès d’un grand nombre de personnes.

Christine Webber

Lisez aussi : L’Union européenne (UE) prend la tête de la réglementation de l’IA

Le cas de Webber est un exemple parfait de la façon dont l'IA peut donner vie à la discrimination, avec un cas accusant un outil d'IA pour les applications de location d'accorder des scores inférieurs aux individus noirs et hispaniques. Ce problème affecte également le domaine médical, où il a été observé que les systèmes d’IA refusent aux patients noirs des soins spéciaux en fonction de leurs évaluations biaisées. Le projet de loi du Colorado tente de répondre à ces préoccupations en examinant chaque année les systèmes d'IA pour déceler les préjugés, en appliquant une réglementation interne et en signalant les résultats discriminatoires au procureur général de l'État.  

Les entreprises résistent à la transparence, craignant d’être exposées à des secrets commerciaux

Bien que l’intention du projet de loi soit de promouvoir la transparence et la responsabilité, l’industrie de l’IA suscite certaines inquiétudes. Alors que les grandes entreprises d’IA ont tendance à approuver de telles mesures, les petites entreprises les considèrent comme potentiellement trop complexes. Le fondateur de Thumper.ai, Logan Cerkovnik, a déclaré que :

« Avoir une législation trop restrictive qui nous oblige à adopter defi et restreint notre utilisation de la technologie pendant qu’elle se forme, va tout simplement être préjudiciable à l’innovation. »

Les sociétés d’IA ont également prévalu en ajoutant une clause empêchant toute personne autre que le procureur général de l’État de poursuivre en justice pour violation de la loi. L’action de l’État du Colorado intervient également alors que le Congrès réfléchit aux règles fédérales en matière d’IA. Le Congrès n’a encore adopté aucun projet de loi réglementant l’IA, mais le chef de la majorité au Sénat, Chuck Schumer, a publié la semaine dernière un rapport contenant des lignes directrices pour la réglementation de l’IA.


Reportage cryptopolitain par Brenda Kanana

Sujets identifiés dans cet article :

Clause de non-responsabilité. Les informations fournies ne constituent pas des conseils commerciaux. Cryptopolitan.com n'assume aucune tron pour tout investissement effectué sur la base des informations fournies sur cette page. Nous recommandons une recherche indépendante dent /ou la consultation d’un professionnel qualifié avant de prendre toute décision d’investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Apple ne paie pas OpenAI pour l'intégration de ChatGPT dans iOS18
cryptopolite
Abonnez-vous à CryptoPolitan