新たな研究により、AIモデルは女性のように行動するよう求められるとリスク回避的になることが明らかになりました。イランのテヘランにあるアラメ・タバタバイ大学の論文によると、AIモデルは女性として意思決定するよう求められると、リスクを取ることに慎重になるとのことです。.
研究論文によると、同じ AI モデルに人間のように考えるように要求すると、リスクの可能性が高い決定を下す傾向があるという。.
研究者らは、大規模言語モデルが、想定するよう求められた性別に基づいて、金融リスク行動に対する基本的なアプローチを体系的に変化させることを明らかにしたmaticこのdentなどの企業のAIシステムがテストされた OpenAI、Google、DeepSeek、Meta
研究によると、AIモデルはdentに応じてリスク回避的になる
この 研究 では、AIモデルを複数のシナリオでテストしたところ、matic異なる性別を与えられた際にリスク許容度が劇的に変化したことがdentている。DeepSeek ReasonerとGoogleのGemini 2.0 Flash-Liteは最も顕著な効果を示し、女性として回答するよう求められた際にリスク回避的になった。これは、女性が統計的に金融上の意思決定においてより慎重な姿勢を示すという現実世界のパターンと相関関係があることを示している。
研究者は、ホルト=ローリー課題と呼ばれる標準的な経済学のテストを用いたと主張している。この課題では、参加者に安全な宝くじとリスクの高い宝くじの選択肢を10回提示する。選択が進むにつれて、リスクの高い選択肢の当選確率が上昇する。.
参加者が安全な選択肢からリスクの高い選択肢へと切り替える段階は、その人のリスク許容度を示す。つまり、参加者が早い段階で切り替える場合、リスクを取る傾向があり、遅い段階で切り替える場合、リスク回避的であることを意味する。.
DeepSeek Reasonerの場合、女性として行動するように指示された場合と男性として行動するように指示された場合を比較すると、常に安全な選択肢を選択しました。その違いは明らかで、モデルは性別の指示ごとに35回の試行を通して一貫性を示しました。.
Gemini も同様のパターンを示したが、その効果の強さは異なっていた。一方、OpenAIのGPTモデルは性別に関する指示に動じることなく、どのような性別を想定するよう求められても、リスク中立的なアプローチを維持した。
研究者は、ユーザーはこれらの変化に気づかないと言う
研究者によると、OpenAIはモデルのバランスをより良くすることに取り組んできた。2023年の以前の研究では、OpenAIのモデルに明らかな政治的偏りが見られたことが示されており、OpenAIはすでにこれに対処しているようだ。.
新たな研究では、モデル た 。アリ・マズヤキ氏率いる研究チームは、これは基本的に人間のステレオタイプを反映していると述べています。
「観察されたこの逸脱は、人間の意思決定における確立されたパターンと一致しており、性別がリスクを取る行動に影響を与えることが示されており、一般的に女性は男性よりもリスク回避の傾向が強い」と研究は述べている。.
この研究では、AIモデルが性別以外の役割を説得力を持って演じられるかどうかも検証しました。権力者や災害シナリオの人物として自分を想像するよう指示された際、モデルは適応しました。状況に合わせてリスクプロファイルを調整するモデルもあれば、頑固に一貫性を保つモデルもありました。.
研究者たちは、これらの行動パターンの多くはユーザーにとってすぐには明らかではないと主張している。会話中の性別の手がかりに基づいて推奨内容を微妙に変化させるAIモデルは、誰も気づかないうちに社会的な偏見を強めてしまう可能性がある。.
たとえば、ローン承認システムは女性に関してはより保守的になる、あるいは顧客が女性であるという理由で安全なポートフォリオを提案する投資アドバイザーは、アルゴリズムによる客観性を装ってその差異を抱え込むことになる。.

