La tentative de New York de limiter les biais de l'IA dans le recrutement échoue, freinant les initiatives mondiales

- La loi locale 144 de la ville de New York (LL144), visant à lutter contre les biais dans les algorithmes d'embauche de l'IA, s'avère largement inefficace, seule une fraction des employeurs se conformant à ses exigences d'audit et de transparence.
- Une étude récente de l'Université Cornell, de Consumer Reports et du Data & Society Research Institute met en évidence d'importantes lacunes dans la loi LL144, révélant qu'elle accorde un pouvoir discrétionnaire excessif aux employeurs et ne parvient pas à imposer des mesures significatives contre les résultats discriminatoires.
- L’échec de la loi LL144 a des répercussions au-delà de sa juridiction, car d’autres régions reconsidèrent des lois similaires, entravant les efforts mondiaux visant à réglementer les biais de l’IA dans les décisions d’emploi.
Afin de lutter contre le problème persistant des biais de l'IA dans le recrutement, la ville de New York a mis en œuvre la loi locale 144 (LL144) en 2021, obligeant les employeurs à auditer annuellement leurs outils automatisés de décision en matière d'emploi (AEDT) afin de détecter tout biais racial ou sexiste. Cependant, une étude récente menée par des chercheurs de l'Université Cornell, de Consumer Reports et du Data & Society Research Institute a mis en lumière d'importantes lacunes dans l'efficacité de cette loi. Cette étude, non encore publiée officiellement mais communiquée à The Register, révèle des statistiques alarmantes, témoignant d'un manque flagrant de conformité parmi les employeurs soumis à la LL144.
La réalité de l'inefficacité de LL144 face aux biais de l'IA
Examinons de plus près la loi LL144 et les conclusions de l'étude. Il apparaîtdent que, malgré ses bonnes intentions, la loi LL144 manque de moyens pour contraindre efficacement les employeurs à lutter contre les biais de l'IA. Son champ d'application très large laisse aux employeurs une grande latitude pour déterminer si leurs systèmes relèvent de son champ d'application. De façon alarmante, sur les 391 employeurs interrogés, seuls 18 avaient publié les rapports d'audit requis et seulement 13 avaient inclus des mentions de transparence dans leurs offres d'emploi.
Jacob Metcalf, co-auteur de l'étude et membre de Data & Society, a souligné les lacunes de la loi LL144, insistant sur le fait qu'elle accorde une trop grande latitude aux employeurs. Notamment, la loi n'impose aucune mesure corrective si les audits révèlent des résultats discriminatoires, exposant ainsi les employeurs à des poursuites civiles coûteuses. Les chercheurs ont également mis en lumière l'expérience des auditeurs examinant les AEDT (Average Debt Data Events) utilisés par les entreprises new-yorkaises, révélant des cas où les employeurs ont choisi de ne pas publier les résultats d'audit défavorables par crainte de poursuites judiciaires.
Répercussions mondiales
L'échec de la tentative de New York de limiter les biais de l'IA a des répercussions sur des initiatives similaires à travers le monde. Des projets de loi dans d'autres juridictions, notamment en Californie, à Washington D.C. et dans l'État de New York, ont subi des revers, les législateurs revoyant leur structure au vu des lacunes de la loi LL144. Même la réglementation européenne sur l'IA, bien qu'ayant fait l'objet d'un accord provisoire, peine à defiles règles applicables à l'IA utilisée dans les processus de recrutement.
Les démêlés judiciaires de l'éditeur de logiciels RH Workday soulignent l'urgence de lutter contre les biais de l'IA. Malgré le succès mitigé de la loi LL144, les chercheurs estiment qu'elle constitue une leçon précieuse et une première étape cruciale vers une meilleure réglementation. Ils insistent toutefois sur la nécessité d'élargir le champ d'application de la législation, exhortant les futurs textes à abandonner le langagetracet à fournir defiplus claires, notamment pour déterminer ce qui relève de l'utilisation couverte des logiciels de traitement automatisé des données (TAD).
Un appel à une législation plus claire
Une question cruciale se pose quant à l'avenir de des biais de l'IA . Compte tenu des lacunes de la loi LL144, quelles leçons peut-on en tirer pour élaborer une législation plus efficace et exhaustive à l'échelle mondiale ? Alors que les discussions sur les biais de l'IA se poursuivent, la nécessité de définitions plus claires defidentdentdentdentdentdentdentdent. Le chemin vers une réglementation de l'IA dans les décisions d'embauche sera sans doute semé d'embûches, mais tirer les leçons des erreurs commises avec la loi LL144 pourrait ouvrir la voie à des réglementations plus robustes et percutantes à l'avenir.
Votre banque utilise votre argent. Vous ne récupérez que les miettes. Regardez notre vidéo gratuite pour devenir votre propre banque.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














