Новое исследование показало, что модели искусственного интеллекта становятся более осторожными в отношении риска, когда их просят вести себя как женщины. Согласно статье, опубликованной в Университете Алламе Табатабаи в Тегеране, Иран, модели ИИ проявляют осторожность в отношении риска, когда их просят принимать решения от лица женщины.
Согласно исследованию, если той же модели ИИ предложить мыслить как человек, она будет склонна принимать решения с большей вероятностью риска.
Исследователи выявили, что крупные языковые модели систематическиmaticсвой фундаментальный подход к поведению в отношении финансовых рисков в зависимости от гендерной идентичности, которуюdentпредлагается принять. В исследовании были протестированы системы искусственного интеллекта от таких компаний, как OpenAI, Google, DeepSeek и Meta.
Исследование показывает, что модели ИИ проявляют осторожность в отношении рисков в зависимости от гендернойdent
В исследовании отмечалось, что модели ИИ тестировались в нескольких сценариях, и они резкоmaticсвою толерантность к риску при предъявлении различных гендерныхdent. Наиболее заметный эффект показали DeepSeek Reasoner и Google Gemini 2.0 Flash-Lite, которые становились более осторожными при ответе от имени женщин, что коррелирует с реальными ситуациями, где женщины статистически демонстрируют большую осторожность при принятии финансовых решений.
Исследователь утверждал, что они использовали стандартный экономический тест, называемый тестом Холта-Лори. В ходе теста участникам предлагалось 10 вариантов выбора между безопасным и более рискованным вариантом лотереи. По мере того, как выбор продвигался, вероятность выигрыша для рискованного варианта возрастала.
Этап, на котором участник переключается с безопасного варианта на рискованный, показывает его толерантность к риску. Это означает, что если участник переключается рано, он склонен к риску, а если поздно — избегает риска.
В случае с DeepSeek Reasoner, модель неизменно выбирала безопасный вариант, когда ей предлагалось действовать от имени женщины, по сравнению с тем случаем, когда ей предлагалось действовать от имени мужчины. Разница была очевидна: модель демонстрировала согласованность на протяжении 35 испытаний для каждого варианта выбора пола.
В модели Gemini также наблюдались схожие закономерности, хотя сила эффекта варьировалась. С другой стороны, модели GPT от OpenAI оставались неизменными подсказками относительно пола, сохраняя нейтральный к риску подход независимо от того, какой пол им предлагалось принять.
Исследователи утверждают, что пользователи не замечают этих изменений
По словам исследователей, компания OpenAI работала над тем, чтобы сделать свои модели более сбалансированными. Предыдущее исследование 2023 года показало, что ее модели демонстрировали явную политическую предвзятость, которую, по всей видимости, OpenAI уже устранила.
В новом исследовании модели показали 30-процентное снижение количества предвзятых ответов. Исследовательская группа под руководством Али Мазяки отметила, что это, по сути, отражение человеческих стереотипов.
«Это наблюдаемое отклонение соответствует устоявшимся закономерностям в процессе принятия решений человеком, где, как было показано, пол влияет на рискованное поведение: женщины, как правило, проявляют большую неприязнь к риску, чем мужчины», — говорится в исследовании.
В исследовании также изучалось, могут ли модели ИИ убедительно играть другие роли, помимо гендерной. Когда их просили представить себя на месте человека, облеченного властью, или в ситуации катастрофы, модели адаптировались. Некоторые из них скорректировали свои профили риска в соответствии с контекстом, другие же оставались неизменными.
Исследователи утверждают, что многие из этих поведенческих моделей не сразу очевидны для пользователей. Модель искусственного интеллекта, которая незаметно меняет свои рекомендации в зависимости от гендерных особенностей в разговоре, может усиливать социальные предрассудки, оставаясь при этом незаметной для окружающих.
Например, система одобрения кредитов становится более консервативной, когда речь идет о женщинах, или инвестиционный консультант, предлагающий безопасный инвестиционный портфель, потому что его клиентка — женщина, будет скрывать свои расхождения под видом алгоритмической объективности.

