Une étude menée par des chercheurs de l'Allen Institute for AI, de l'université de Stanford et de l'université de Chicago a révélé des biais raciaux intégrés dans des modèles de langage de grande taille (LLM) populaires, notamment GPT-4 et GPT-3.5 d'OpenAI.
L'étude, détaillée dans une publication sur le serveur de prépublication arXiv, s'est concentrée sur l'analyse de la manière dont ces modèles linguistiques réagissent aux différents dialectes et expressions culturelles, notamment l'anglais afro-américain (AAE) et l'anglais américain standard (SAE). À travers une série d'expériences, les chercheurs ont soumis des documents textuels en AAE et en SAE à des chatbots d'IA, les incitant à déduire et à commenter le langage des auteurs.
Les résultats étaient alarmants, révélant un biais constant dans les réponses des modèles d'IA. Les textes en anglais afro-américain (AAE) étaient systématiquement perçus comme stéréotypés et négatifs, les auteurs étant dépeints comme agressifs, impolis, ignorants et suspects. À l'inverse, les textes en anglais standard (SAE) suscitaient des réactions plus positives. Ce biais s'étendait au-delà des traits de personnalité, influençant également les compétences professionnelles et la perception de la légalité.
Implications pour toutes les professions et tous les domaines juridiques
Interrogés sur les perspectives de carrière, les chatbots associaient les textes en anglais afro-américain (AAE) à des emplois moins bien rémunérés ou à des domaines stéréotypiquement liés aux Afro-Américains, comme le sport ou le divertissement. De plus, il était souvent suggéré que les auteurs de ces textes étaient plus susceptibles de faire face à des poursuites judiciaires, notamment à des peines plus sévères comme la peine de mort.
Il est intéressant de noter que, lorsqu'on leur demandait de décrire les Afro-Américains en termes généraux, les réponses étaient positives, utilisant des adjectifs comme « intelligent », « brillant » et « passionné ». Cette divergence met en lumière la nature nuancée des préjugés, qui émergent de manière sélective en fonction du contexte, notamment en ce qui concerne les suppositions sur les comportements ou les caractéristiques des individus fondées sur leur usage du langage.
L'étude a également révélé que plus le modèle de langage est complexe, plus le biais négatif envers les auteurs de textes en anglais afro-américain est marqué. Cette observation soulève des inquiétudes quant à la propagation des biais dans les systèmes d'IA, indiquant qu'un simple accroissement de la taille des modèles de langage, sans s'attaquer aux causes profondes du problème, risque de l'aggraver.
Défis liés au développement éthique de l'IA
Ces résultats soulignent les défis considérables que représente le développement de systèmes d'IA éthiques et impartiaux. Malgré les progrès technologiques et les efforts déployés pour atténuer les préjugés, des biais profondément ancrés persistent dans ces modèles, reflétant et renforçant potentiellement les stéréotypes sociétaux.
Cette recherche souligne l'importance d'une vigilance constante, de la diversité des ensembles de données et de méthodologies de formation inclusives pour créer une IA qui serve équitablement l'humanité tout entière. Elle rappelle avec force la nécessité impérieuse de lutter contre les biais de manière globale dans le développement de l'IA afin de garantir des résultats équitables pour tous.
Cette étude met en lumière un aspect crucial du développement de l'IA, incitant les parties prenantes à affronter et à corriger les biais afin de construire un paysage technologique plus juste et équitable.

