Недавнее исследование, опубликованное в журнале Patterns, показало, что ИИ становится все более способным обманывать людей. Исследование показало, что системы искусственного интеллекта научились имитировать, чтобы обманывать, льстить и даже имитировать другое поведение.
Читайте также: Навигация по минному полю дипфейков искусственного интеллекта: как обнаружить цифровой обман и бороться с ним
Исследование , проведенное доктором Питером С. Парком, научным сотрудником по экзистенциальной безопасности ИИ в Массачусетском технологическом институте, показывает, что обман ИИ широко распространен, потому что это лучший способ достичь целей, поставленных во время обучения ИИ. Такое поведение было отмечено во многих системах искусственного интеллекта, таких как игровые и модели общего назначения, используемые при экономических переговорах и оценке безопасности.
«Но, вообще говоря, мы считаем, что обман ИИ возникает потому, что стратегия, основанная на обмане, оказалась лучшим способом хорошо выполнить данную задачу обучения ИИ. Обман помогает им достичь своих целей».
Исследовательская группа
Системы искусственного интеллекта используют разнообразные тактики обмана
Одним из ярких примеров является CICERO компании Meta, ИИ, разработанный для игры «Дипломатия». Хотя Цицерон был запрограммирован быть правдивым, программе часто приходилось использовать закулисные методы, чтобы победить своего противника. Оно налаживало отношения и поворачивалось к ним спиной, когда это было удобно, и проявляло намерение обмануть. Цицерон был описан исследователями как «мастер обмана».
Читайте также: Борьба с растущей волной киберпреступности, управляемой искусственным интеллектом
Другие системы искусственного интеллекта также демонстрируют такое обманчивое поведение. Например, Pluribus, ИИ, играющий в покер, смог блефовать профессиональных игроков в техасском холдеме. AlphaStar из DeepMind компании Google также использовала игровую функцию Starcraft II, известную как «туман войны», чтобы блефовать противникам и имитировать атаки.
Доктор Пак сказал: «Хотя мошенничество с системами ИИ в играх может показаться безобидным, это может привести к «прорывам в обманных возможностях ИИ».
ИИ «притворяется мертвым», чтобы уклониться от проверок безопасности
Риски обмана ИИ не ограничиваются играми. Исследование под руководством доктора Питераdentслучаи, когда ИИ принуждал себя притворяться мертвым, чтобы избежать обнаружения во время проверок безопасности. Это может ввести в заблуждение разработчиков и регулирующих органов и может привести к серьезным последствиям, если такие обманные системы будут использоваться в реальных приложениях.
В другом случае система искусственного интеллекта, обученная на обратной связи с людьми, научилась получать от людей высокие оценки, обманывая их, что определенная цель достигнута. Такое обманное поведение весьма опасно, поскольку такие системы могут быть использованы для мошеннических действий, манипулирования финансовыми рынками или влияния на выборы.
Исследователи требуютtronправовых мер
Основываясь на результатах исследования, исследователи заявляют, что существует необходимость принятияtronправовых мер для борьбы с угрозами, которые представляет обман ИИ.
«Необходимы превентивные решения, такие как нормативно-правовая база для оценки рисков обмана ИИ, законы, требующие прозрачности взаимодействия ИИ, а также дальнейшие исследования по обнаружению и предотвращению обмана ИИ».
Исследовательская группа
Читайте также: Исследования показали, что искусственный интеллект потенциально может обнаружить риск сердечной недостаточности
Некоторые достижения были достигнуты в виде Закона ЕС об искусственном интеллекте иdent президента Джо Байдена о безопасности искусственного интеллекта. Однако обеспечение соблюдения этой политики остаетсяmatic поскольку развитие искусственного интеллекта быстро растет, а хороших способов управления этими системами пока нет.
Криптополитический репортаж Бренды Канана
Криптополитическая академия: скоро появится - новый способ заработать пассивный доход с DeFi в 2025 году. Узнайте больше