アレンAI研究所、スタンフォード大学、シカゴ大学の研究者らが実施した調査で、OpenAIのGPT-4やGPT-3.5など、人気の大規模言語モデル(LLM)に人種的偏見が埋め込まれていることが明らかになった。.
arXivプレプリントサーバーに掲載された論文で詳細が発表されたこの研究は、これらのLLMが 様々な方言や文化的表現、特にアフリカ系アメリカ英語(AAE)と標準アメリカ英語(SAE)にどのように反応するかを調査することに焦点を当てています。一連の実験を通じて、研究者たちはAAEとSAEの両方のテキスト文書をAIチャットボットに入力し、著者について推測とコメントを促しました。
結果は憂慮すべきもので、AIモデルの回答に一貫した偏りが見られることが明らかになりました。AAEのテキストは一貫して否定的なステレオタイプに捉えられ、作成者は攻撃的、失礼、無知、疑り深いといった印象を与えました。一方、SAEのテキストはより肯定的な反応を引き起こしました。この偏りは性格特性にとどまらず、専門能力や法的地位の認識にも影響を与えました。.
専門職や法曹界全体への影響
将来のキャリアについて質問すると、チャットボットはAAEのテキストを、低賃金の仕事や、スポーツやエンターテインメントなど、アフリカ系アメリカ人に典型的に結び付けられる分野と関連付けました。さらに、AAEのテキストの著者は、死刑などのより厳しい判決を含む法的制裁を受ける可能性が高いと示唆されることがよくありました。.
興味深いことに、アフリカ系アメリカ人を一般的な言葉で説明するよう求められたとき、回答は肯定的で、「知的」「聡明」「情熱的」といった形容詞を用いていました。この食い違いは、バイアスの微妙な性質を浮き彫りにしています。バイアスは文脈に基づいて選択的に現れ、特に言語使用に基づいて個人の行動や特徴について推測する際に顕著です。.
この研究では、言語モデルが大きくなるにつれて、アフリカ系アメリカ英語のテキストの著者に対する否定的なバイアスがより顕著になることも明らかになりました。この観察結果は AIシステムにおけるバイアスのスケーラビリティ、根本的な原因に対処せずに言語モデルの規模を単純に拡大すると、問題が悪化する可能性があることを示唆しています。
倫理的なAI開発における課題
これらの調査結果は、倫理的かつ公平なAIシステム開発が直面する重大な課題を浮き彫りにしています。技術の進歩や偏見を軽減するための取り組みにもかかわらず、根深い偏見は依然としてこれらのモデルに浸透しており、社会的なステレオタイプを反映し、場合によっては強化している可能性があります。.
この研究は、人類全体に公平に役立つAIを開発するためには、継続的な監視、多様なデータセット、そして包括的な学習方法論の重要性を強調しています。これは、すべての個人にとって公平な結果を保証するために、AI開発におけるバイアスに包括的に対処することの重要性を改めて認識させるものです。.
この研究は、AI開発の重要な側面に光を当て、関係者に対し、より公正かつ公平な技術的環境を構築するために偏見に立ち向かい、対処するよう促している。.

