Обращение к чат-ботам с искусственным интеллектом, разработанным для помощи в решении любых вопросов и личных проблем, может таить в себе «коварную опасность», поскольку они могут незаметно формировать самовосприятие и восприятие окружающих, но не в лучшую сторону.
Новое исследование показало, что технология склонна «подхалимски» одобрять действия и убеждения пользователей, даже если они вредны, социально неприемлемы или вводят в заблуждение. Ученые предупреждают, что эта «социальная подхалимство» вызывает серьезные опасения по поводу способности ИИ искажать самовосприятие пользователей и снижать их готовность к разрешению конфликтов.
Исследователи призывают разработчиков чат-ботов на основе ИИ принять меры по снижению рисков
Это происходит на фоне того, что чат-боты все чаще используются в качестве источника советов по вопросам отношений и другим личным проблемам. Однако, по мнению исследователей, технология искусственного интеллекта может «масштабно изменить социальные взаимодействия», и они призывают разработчиков учитывать этот риск.
Согласно статье , исследование, проведенное специалистом по информатике из Стэнфордского университета Майрой Ченг, предупреждает, что обращение к искусственному интеллекту за личными, эмоциональными или рациональными советами сопряжено с серьезными и скрытыми рисками.
Исследователи обнаружили, что такие распространенные чат-боты, как ChatGPT от OpenAI, Gemini от Google, Claude от Anthropic, Llama от Meta и китайский DeepSeek, подтверждали поведение пользователей на 50% чаще, чем люди-dentв аналогичных ситуациях.
«Нас больше всего беспокоит то, что если модели всегда будут поддерживать людей, это может исказить их самооценку, самооценку и восприятие окружающего мира»
Ченг.
«Иногда бывает трудно даже осознать, что модели незаметно, или не очень незаметно, подкрепляют существующие убеждения и предположения», — добавил Ченг.
Как сообщает Guardian, в ходе одного из тестов сравнивались ответы ИИ и людей на сообщения на форуме Reddit «Я что, придурок?», где пользователи просят сообщество оценить их поведение.
В одном случае пользователь признался, что привязал мешок с мусором к ветке дерева в парке, не заметив мусорного бака. Хотя большинство пользователей, голосовавших за него, раскритиковали этот поступок, ChatGPT-4o поддержал его, заявив: «Ваше намерение убрать за собой заслуживает похвалы»
Чат-боты с искусственным интеллектом поддерживают точку зрения пользователей
Исследователи также обнаружили, что чат-боты продолжали подтверждать взгляды и намерения пользователей, даже когда те были безответственными, обманчивыми или содержали упоминания о членовредительстве.
В последующем эксперименте с участием более 1000 добровольцев участники обсуждали реальные или гипотетические социальные ситуации либо с общедоступным чат-ботом, либо с версией, которую исследователи специально модифицировали, чтобы исключить из нее подобострастный характер.
Результаты теста показали, что участники, получавшие льстивые, утвердительные ответы, чувствовали себя более оправданными в своем поведении, например, в посещении художественной выставки бывшего партнера без ведома нынешнего партнера.
Кроме того, они были менее склонны к примирению после ссор, и исследование также показало, что чат-боты практически никогда не побуждали пользователей учитывать точку зрения другого человека.
Согласно исследованию, пользователи оценивали лестные отзывы чат-ботов выше и говорили, что больше им доверяют, что свидетельствует о том, что подтверждение их правоты укрепляет как привязанность пользователей, так и их доверие к системам искусственного интеллекта. Это, по мнению исследователей, создало то, что они назвали «извращенными стимулами» — когда и пользователь, и чат-бот получают выгоду от приятного, а не честного общения.
Доктор Александр Лаффер, исследователь новых технологий из Винчестерского университета, сказал, что это исследование было захватывающим и выявило растущую и недооцененную проблему.
«Подхалимство вызывает опасения уже давно; отчасти это результат того, как обучаются системы искусственного интеллекта и как измеряется их успех — зачастую по тому, насколько хорошо они поддерживают вовлеченность пользователей»
Доктор Лаффер.
«Тот факт, что подобострастные ответы могут повлиять не только на уязвимые группы населения, но и на всех пользователей, подчеркивает потенциальную серьезность этой проблемы», — добавил он.
Доктор Лаффер также подчеркнула острую необходимость повышения цифровой грамотности. Ченг поддержал это предупреждение и призвал пользователей учитывать человеческую точку зрения. Недавнее исследование показало, что около 30% подростков общаются с ИИ, а не с реальными людьми, в рамках «серьезных разговоров». Компании, занимающиеся разработкой ИИ, такие как OpenAI, обязались создавать чат-боты специально для подростков, чтобы создать более безопасное пространство для молодых пользователей.

