В исследовании, опубликованном в журнале Proceedings of the National Academy of Sciences (PNAS), исследователи провели всесторонний анализ чат-ботов на основе искусственного интеллекта (ИИ), сосредоточившись на их человекоподобном поведении и личностных чертах. В этом исследовании, направленном на оценку возможностей ИИ в имитации человеческого поведения , использовались последние версии серии предварительно обученных трансформеров для генерации чатов OpenAI, GPT-3.5-Turbo (ChatGPT-3) и GPT-4 (ChatGPT-4), и сравнивалась их производительность с обширным набором данных ответов людей.
Человекоподобное поведение ИИ под пристальным вниманием
В исследовании оценивались чат-боты с искусственным интеллектом с точки зрения модели личности «Большая пятерка» OCEAN, включающей в себя открытость опыту, добросовестность, экстраверсию, доброжелательность и невротизм. Параллельно чат-боты участвовали в серии поведенческих игр, включая «Игру в диктатора», «Игру в доверие» и «Игру в общественные блага», которые были разработаны для выявления таких черт, как альтруизм, справедливость и сотрудничество.
Результаты показали, что ChatGPT-4 очень близок к средним показателям людей по всем параметрам личности, демонстрируя замечательно человекоподобную модель поведения. ChatGPT-3, хотя и немного отличается по открытости, такжеtronкоррелирует с поведением человека, хотя и с различными личностными профилями, которые отличают каждую версию ИИ.
Одним из важных открытий исследования стала эффективность ИИ в играх, требующих принятия стратегических решений, что указывает на потенциальную возможность прохождения ChatGPT-4 теста Тьюринга — показателя способности машины демонстрировать интеллектуальное поведение, неотличимое от человеческого. Этот аспект особенно ярко проявился в играх, оценивающих такие качества, как неприятие риска, альтруизм и справедливость, где решения ИИ часто отражали или превосходили действия человека.
Кроме того, анализ показал, как чат-боты с искусственным интеллектом адаптируют свои стратегии в ответ на различные условия, демонстрируя высокий уровень реагирования на контекстные сигналы, схожий с поведением человека. Эта адаптивность в сочетании со способностью ИИ «учиться» на основе прошлых игровых ролей подчеркивает сложное понимание сотрудничества и доверия, тесно связанное с принятием стратегических решений человеком.
Этические и социальные последствия
Поскольку искусственный интеллект продолжает интегрироваться в различные аспекты человеческой жизни, понимание процессов принятия решений и обеспечение их соответствия этическим стандартам и общественным нормам становится первостепенной задачей. Данное исследование расширяет наши знания в этой области и поднимает актуальные вопросы о влиянии ИИ на общество, от воздействия на рынок труда до этических соображений.
Исследование поведения и личностных качеств чат-ботов с искусственным интеллектом в сравнении с мировыми человеческими эталонами создает новыйdent в исследованиях ИИ. Оно подчеркивает стремительный технологический прогресс, позволяющий машинам имитировать поведение человека точнее, чем когда-либо. По мере того, как системы ИИ, такие как ChatGPT, становятся все более сложными, их потенциал вносить позитивный вклад в общество растет, несмотря на необходимость постоянного контроля для согласования их возможностей с этическими и социальными ценностями.
Это исследование знаменует собой значительный шаг вперед в понимании возможностей ИИ. Оно закладывает основу для дальнейших исследований сложностей принятия решений ИИ, обеспечивая его полезную интеграцию в человеческий контекст.

