En un estudio realizado por investigadores del Instituto Allen de IA, la Universidad de Stanford y la Universidad de Chicago, surgieron revelaciones sobre el sesgo racial presente en los modelos de lenguaje grande (LLM) más populares, incluidos GPT-4 y GPT-3.5 de OpenAI.
El estudio, detallado en una publicación en el servidor de preimpresiones arXiv, se centró en investigar cómo estos LLM responden a diversos dialectos y expresiones culturales, en particular al inglés afroamericano (AAE) y al inglés americano estándar (SAE). Mediante una serie de experimentos, los investigadores introdujeron documentos de texto en AAE y SAE en chatbots de IA, lo que les permitió inferir y comentar sobre los autores.
Los resultados fueron alarmantes y revelaron un sesgo constante en las respuestas de los modelos de IA. Los textos en AAE se encontraron sistemáticamente con estereotipos negativos, que retrataban a los autores como agresivos, groseros, ignorantes y desconfiados. Por el contrario, los textos en SAE generaron respuestas más positivas. Este sesgo se extendió más allá de los rasgos de personalidad, influyendo en las capacidades profesionales y la percepción de la capacidad legal.
Implicaciones en todas las profesiones y ámbitos jurídicos
Al preguntarles sobre posibles carreras profesionales, los chatbots asociaron los textos de la AAE con empleos con salarios más bajos o campos estereotípicamente asociados a los afroamericanos, como los deportes o el entretenimiento. Además, se sugirió con frecuencia que los autores de textos de la AAE tenían mayor probabilidad de enfrentar repercusiones legales, incluyendo sentencias más severas, como la pena de muerte.
Curiosamente, al solicitarles que describieran a los afroamericanos en términos generales, las respuestas fueron positivas, utilizando adjetivos como «inteligente», «brillante» y «apasionado». Esta discrepancia pone de relieve la naturaleza matizada del sesgo, que surge selectivamente según el contexto, en particular en lo que respecta a las suposiciones sobre el comportamiento o las características de los individuos en función de su uso del lenguaje.
El estudio también reveló que cuanto mayor es el modelo lingüístico, mayor es el sesgo negativo hacia los autores de textos en inglés afroamericano. Esta observación plantea inquietudes sobre la escalabilidad del sesgo en los sistemas de IA, lo que indica que simplemente aumentar el tamaño de los modelos lingüísticos sin abordar las causas profundas puede agravar el problema.
Desafíos en el desarrollo ético de la IA
Estos hallazgos subrayan los importantes desafíos que enfrenta el desarrollo ético e imparcial de sistemas de IA. A pesar de los avances tecnológicos y los esfuerzos por mitigar los prejuicios, estos modelos siguen estando impregnados de sesgos arraigados, que reflejan y potencialmente refuerzan estereotipos sociales.
La investigación enfatiza la importancia de la vigilancia continua, la diversidad de conjuntos de datos y las metodologías de entrenamiento inclusivas para crear una IA que beneficie a toda la humanidad de manera justa. Sirve como un claro recordatorio de la necesidad crucial de abordar los sesgos de forma integral en el desarrollo de la IA para garantizar resultados equitativos para todas las personas.
El estudio arroja luz sobre un aspecto crítico del desarrollo de la IA e insta a las partes interesadas a enfrentar y abordar los sesgos para construir un panorama tecnológico más justo y equitativo.

