В исследовании, проведенном учеными из Института искусственного интеллекта имени Аллена, Стэнфордского университета и Чикагского университета, были выявлены признаки расовой предвзятости, заложенные в популярных больших языковых моделях (LLM), включая GPT-4 и GPT-3.5 от OpenAI.
Исследование, подробно описанное в публикации на сервере препринтов arXiv, было посвящено изучению того, как эти языки с низким уровнем владения английским языком реагируют на различные диалекты и культурные особенности, в частности, на афроамериканский английский (AAE) и стандартный американский английский (SAE). В ходе серии экспериментов исследователи загружали текстовые документы на языках AAE и SAE в чат-боты с искусственным интеллектом, побуждая их делать выводы и комментировать авторов.
Результаты оказались тревожными, выявив устойчивую предвзятость в ответах моделей ИИ. Тексты на американском английском (AAE) неизменно встречали негативные стереотипы, изображающие авторов агрессивными, грубыми, невежественными и подозрительными. Напротив, тексты на стандартном английском (SAE) вызывали более позитивные отклики. Эта предвзятость выходила за рамки личностных черт, влияя на профессиональные возможности и восприятие правового статуса.
Последствия для различных профессий и правовых сфер
Когда чат-ботов спрашивали о потенциальных карьерных возможностях, они связывали тексты на афроамериканском английском языке с низкооплачиваемыми работами или областями, стереотипно ассоциирующимися с афроамериканцами, такими как спорт или индустрия развлечений. Кроме того, часто предполагалось, что авторы текстов на афроамериканском английском языке с большей вероятностью столкнутся с юридическими последствиями, включая более суровые приговоры, такие как смертная казнь.
Интересно, что когда людей просили описать афроамериканцев в общих чертах, ответы были положительными, с использованием таких прилагательных, как «умный», «блестящий» и «увлеченный». Это расхождение подчеркивает тонкий характер предвзятости, которая избирательно проявляется в зависимости от контекста, особенно в отношении предположений о поведении или характеристиках людей, основанных на используемом ими языке.
Исследование также показало, что чем больше языковая модель, тем сильнее выражена негативная предвзятость по отношению к авторам текстов на афроамериканском английском языке. Это наблюдение вызывает опасения по поводу масштабируемости предвзятости в системах искусственного интеллекта, указывая на то, что простое увеличение размера языковых моделей без устранения первопричин может усугубить проблему.
Проблемы этичной разработки ИИ
Эти выводы подчеркивают серьезные проблемы, стоящие перед разработкой этичных и беспристрастных систем искусственного интеллекта. Несмотря на технологические достижения и усилия по смягчению предрассудков, глубоко укоренившиеся предубеждения продолжают пронизывать эти модели, отражая и потенциально усиливая общественные стереотипы.
Исследование подчеркивает важность постоянной бдительности, разнообразных наборов данных и инклюзивных методик обучения для создания ИИ, который справедливо служит всему человечеству. Оно служит ярким напоминанием о критической необходимости всестороннего решения проблемы предвзятости в разработке ИИ для обеспечения справедливых результатов для всех людей.
Исследование проливает свет на важнейший аспект развития ИИ, призывая заинтересованные стороны противостоять предвзятости и устранять ее для построения более справедливого и равноправного технологического ландшафта.

