Your bank is using your money. You’re getting the scraps.WATCH FREE

Une étude sur l'IA révèle des biais raciaux persistants dans les modèles de langage

Dans cet article :

  • L'étude révèle que les modèles de langage d'IA comme GPT-4 et GPT-3.5 présentent un biais racial à l'encontre de l'anglais afro-américain, l'associant à des stéréotypes négatifs et à des conséquences juridiques.
  • Les modèles d'IA plus vastes présentent des biais plus prononcés, ce qui soulève des inquiétudes quant à leur évolutivité et aux implications éthiques du développement de l'IA.
  • Les recherches soulignent la nécessité de poursuivre les efforts pour lutter de manière globale contre les biais dans les systèmes d'IA afin de garantir l'équité et l'inclusion.

Une étude menée par des chercheurs de l'Allen Institute for AI, de l'université de Stanford et de l'université de Chicago a révélé des biais raciaux intégrés dans des modèles de langage de grande taille (LLM) populaires, notamment GPT-4 et GPT-3.5 d'OpenAI.

L'étude, détaillée dans une publication sur le serveur de prépublication arXiv, s'est concentrée sur l'analyse de la manière dont ces modèles linguistiques réagissent aux différents dialectes et expressions culturelles, notamment l'anglais afro-américain (AAE) et l'anglais américain standard (SAE). À travers une série d'expériences, les chercheurs ont soumis des documents textuels en AAE et en SAE à des chatbots d'IA, les incitant à déduire et à commenter le langage des auteurs.

Les résultats étaient alarmants, révélant un biais constant dans les réponses des modèles d'IA. Les textes en anglais afro-américain (AAE) étaient systématiquement perçus comme stéréotypés et négatifs, les auteurs étant dépeints comme agressifs, impolis, ignorants et suspects. À l'inverse, les textes en anglais standard (SAE) suscitaient des réactions plus positives. Ce biais s'étendait au-delà des traits de personnalité, influençant également les compétences professionnelles et la perception de la légalité.

Implications pour toutes les professions et tous les domaines juridiques

Interrogés sur les perspectives de carrière, les chatbots associaient les textes en anglais afro-américain (AAE) à des emplois moins bien rémunérés ou à des domaines stéréotypiquement liés aux Afro-Américains, comme le sport ou le divertissement. De plus, il était souvent suggéré que les auteurs de ces textes étaient plus susceptibles de faire face à des poursuites judiciaires, notamment à des peines plus sévères comme la peine de mort.

Voir aussi :  Le Japon peut-il ignorer les restrictions liées au droit d’auteur dans la formation des programmes d’IA générative ?

Il est intéressant de noter que, lorsqu'on leur demandait de décrire les Afro-Américains en termes généraux, les réponses étaient positives, utilisant des adjectifs comme « intelligent », « brillant » et « passionné ». Cette divergence met en lumière la nature nuancée des préjugés, qui émergent de manière sélective en fonction du contexte, notamment en ce qui concerne les suppositions sur les comportements ou les caractéristiques des individus fondées sur leur usage du langage.

L'étude a également révélé que plus le modèle de langage est complexe, plus le biais négatif envers les auteurs de textes en anglais afro-américain est marqué. Cette observation soulève des inquiétudes quant à la propagation des biais dans les systèmes d'IA, indiquant qu'un simple accroissement de la taille des modèles de langage, sans s'attaquer aux causes profondes du problème, risque de l'aggraver.

Défis liés au développement éthique de l'IA

Ces résultats soulignent les défis considérables que représente le développement de systèmes d'IA éthiques et impartiaux. Malgré les progrès technologiques et les efforts déployés pour atténuer les préjugés, des biais profondément ancrés persistent dans ces modèles, reflétant et renforçant potentiellement les stéréotypes sociétaux.

Cette recherche souligne l'importance d'une vigilance constante, de la diversité des ensembles de données et de méthodologies de formation inclusives pour créer une IA qui serve équitablement l'humanité tout entière. Elle rappelle avec force la nécessité impérieuse de lutter contre les biais de manière globale dans le développement de l'IA afin de garantir des résultats équitables pour tous.

Cette étude met en lumière un aspect crucial du développement de l'IA, incitant les parties prenantes à affronter et à corriger les biais afin de construire un paysage technologique plus juste et équitable.

Voir aussi :  L’IA en archéologie peut-elle percer les mystères de l’histoire ancienne ?

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.

Partager le lien :

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan