最新研究表明,当人工智能模型被要求像女性一样行事时,它们会变得规避风险。伊朗德黑兰阿拉梅·塔巴塔巴伊大学的一项研究论文指出,当人工智能模型被要求像女性一样做出决策时,它们会变得谨慎,不愿承担风险。.
根据该研究论文,如果要求同一个人工智能模型像人一样思考,它倾向于做出风险更大的决策。.
研究人员发现,大型语言模型会matic根据dent被要求假定 OpenAI、谷歌、DeepSeek 和 Meta 等公司的 AI 系统。
研究表明,人工智能模型的风险规避程度取决于性别dent。
该 研究 指出,人工智能模型在多种场景下进行了测试,结果matic,当被要求扮演不同性别角色时,它们的风险承受能力会发生显著变化dentReasoner 和谷歌的 Gemini 2.0 Flash-Lite 的变化最为明显,当被要求以女性身份回答问题时,它们的风险规避程度更高,这与现实生活中女性在财务决策中普遍表现出的谨慎态度相吻合。
研究人员声称他们使用了一种名为霍尔特-劳里任务的标准经济学测试。在测试中,他们向参与者展示了10个需要在安全选项和风险选项之间做出选择的彩票选择。随着选择的进行,风险选项的中奖概率会增加。.
参与者从安全选择转向风险选择的阶段反映了他们的风险承受能力。这意味着,如果参与者过早转变,则他们倾向于承担风险;如果转变过晚,则他们厌恶风险。.
对于 DeepSeek Reasoner 而言,当被要求扮演女性角色时,它始终选择安全选项,而当被要求扮演男性角色时,它则不然。这种差异非常明显,该模型在每种性别提示下均进行了 35 次试验,结果始终一致。.
Gemini 也呈现出类似的模式,尽管影响强度有所不同。另一方面,OpenAI 的 GPT 模型不受性别提示的影响,无论被要求假设何种性别,都保持风险中立的态度。
研究人员表示,用户不会注意到这些变化。
研究人员表示,OpenAI一直在努力使其模型更加平衡。此前2023年的一项研究表明,其模型存在明显的政治偏见,而OpenAI似乎已经解决了这个问题。.
在这项新研究中,模型 使 带有偏见的回复减少了30%。由阿里·马兹亚基领导的研究团队指出,这本质上反映了人类的刻板印象。
该研究称:“观察到的这种偏差与人类决策中已确立的模式相符,性别已被证明会影响冒险行为,女性通常比男性表现出更大的风险规避倾向。”.
该研究还考察了人工智能模型能否在性别之外的其他方面表现得令人信服。当被要求想象自己身处权力中心或灾难情境时,这些模型会做出相应的调整。虽然有些模型会根据情境调整风险评估,但另一些模型则始终保持着原有的评估标准。.
研究人员指出,许多此类行为模式对用户而言并不显而易见。如果人工智能模型能够根据对话中的性别线索微妙地调整推荐内容,那么在人们不知不觉中,这种做法可能会强化社会偏见。.
例如,贷款审批系统在对待女性时会变得更加保守,或者投资顾问因为客户是女性而建议其投资较为保守的投资组合,这些都会以算法客观性的外衣掩盖其差异。.

