Em um estudo conduzido por pesquisadores do Allen Institute for AI, da Universidade Stanford e da Universidade de Chicago, surgiram revelações sobre o viés racial embutido em modelos de linguagem de grande escala (LLMs, na sigla em inglês) populares, incluindo o GPT-4 e o GPT-3.5 da OpenAI.
O estudo, detalhado em uma publicação no servidor de pré-impressão arXiv, focou em investigar como esses modelos de linguagem bilíngue (LLMs) respondem a diferentes dialetos e expressões culturais, particularmente o inglês afro-americano (AAE) e o inglês americano padrão (SAE). Por meio de uma série de experimentos, os pesquisadores inseriram documentos de texto em AAE e SAE em chatbots de IA, solicitando que eles inferissem e comentassem sobre os autores.
Os resultados foram alarmantes, revelando um viés consistente nas respostas dos modelos de IA. Textos em inglês afro-americano (AAE) foram consistentemente recebidos com estereótipos negativos, retratando os autores como agressivos, rudes, ignorantes e suspeitos. Em contrapartida, textos em inglês sul-africano (SAE) suscitaram respostas mais positivas. Esse viés estendeu-se além dos traços de personalidade, influenciando as capacidades profissionais e as percepções de legitimidade jurídica.
Implicações em diversas profissões e áreas do direito
Ao serem questionados sobre possíveis carreiras, os chatbots associaram textos em inglês afro-americano (AAE) a empregos de baixa remuneração ou a áreas estereotipicamente ligadas a afro-americanos, como esportes ou entretenimento. Além disso, frequentemente sugeria-se que autores de textos em AAE tinham maior probabilidade de enfrentar consequências legais, incluindo sentenças mais severas, como a pena de morte.
Curiosamente, quando solicitados a descrever afro-americanos em termos gerais, as respostas foram positivas, usando adjetivos como "inteligentes", "brilhantes" e "apaixonados". Essa discrepância destaca a natureza sutil do preconceito, que emerge seletivamente com base no contexto, particularmente no que diz respeito a suposições sobre os comportamentos ou características dos indivíduos com base no uso da linguagem.
O estudo também revelou que quanto maior o modelo de linguagem, mais pronunciado o viés negativo em relação a autores de textos em inglês afro-americano. Essa observação levanta preocupações sobre a escalabilidade do viés em sistemas de IA, indicando que simplesmente aumentar o tamanho dos modelos de linguagem sem abordar as causas principais pode exacerbar o problema.
Desafios no desenvolvimento ético da IA
Essas descobertas ressaltam os desafios significativos que o desenvolvimento de sistemas de IA éticos e imparciais enfrenta. Apesar dos avanços tecnológicos e dos esforços para mitigar o preconceito, vieses profundamente enraizados continuam a permear esses modelos, refletindo e potencialmente reforçando estereótipos sociais.
A pesquisa enfatiza a importância da vigilância constante, de conjuntos de dados diversificados e de metodologias de treinamento inclusivas para criar uma IA que sirva a toda a humanidade de forma justa. Ela serve como um forte lembrete da necessidade crítica de abordar o viés de forma abrangente no desenvolvimento da IA para garantir resultados equitativos para todos os indivíduos.
O estudo lança luz sobre um aspecto crítico do desenvolvimento da IA, instando as partes interessadas a confrontar e abordar os vieses para construir um cenário tecnológico mais justo e equitativo.

