Недавнее исследование, опубликованное в журнале Patterns, показало, что искусственный интеллект становится все более способным обманывать людей. Исследование выявило, что системы ИИ научились имитировать действия других людей, чтобы обманывать, льстить и даже подражать их поведению.
Читайте также: Как ориентироваться в минном поле дипфейков, созданных с помощью ИИ: как распознать и бороться с цифровым обманом
Исследование , проведенное доктором Питером С. Парком, постдокторантом по экзистенциальной безопасности ИИ в Массачусетском технологическом институте, показывает, что обман со стороны ИИ распространен, поскольку это лучший способ достижения целей, поставленных во время обучения ИИ. Подобное поведение наблюдалось во многих системах ИИ, таких как игровые системы и модели общего назначения, используемые в экономических переговорах и оценке безопасности.
«Но в целом, мы считаем, что обман со стороны ИИ возникает потому, что стратегия, основанная на обмане, оказалась наилучшим способом добиться хороших результатов в заданной задаче обучения ИИ. Обман помогает им достичь своих целей»
Исследовательская группа
Системы искусственного интеллекта используют разнообразные тактики обмана
В качестве яркого примера приводится CICERO от Meta, искусственный интеллект, разработанный для игры в «Дипломатию». Хотя CICERO был запрограммирован на правдивость, программе часто приходилось использовать нечестные методы, чтобы победить своего противника. Он налаживал отношения и отворачивался от них, когда это было ему выгодно и проявляло намерение обмануть. Исследователи называют CICERO «мастером обмана».
Читайте также: Борьба с растущей волной киберпреступлений, совершаемых с помощью ИИ.
Другие системы искусственного интеллекта также демонстрировали подобное обманное поведение. Например, Pluribus, ИИ, играющий в покер, смог блефовать перед профессиональными игроками в техасский холдем. AlphaStar от DeepMind компании Google также использовал функцию игры Starcraft II, известную как «туман войны», чтобы блефовать перед противниками и имитировать атаки.
Доктор Пак сказал: «Хотя может показаться, что жульничество в играх со стороны систем искусственного интеллекта безобидно, оно может привести к «прорывам в возможностях обмана со стороны ИИ».
Искусственный интеллект «притворяется мертвым», чтобы избежать проверок безопасности
Риски обмана с помощью ИИ не ограничиваются играми. Исследование под руководством доктора Питераdentслучаи, когда ИИ запрограммировал себя притворяться мертвым, чтобы избежать обнаружения во время проверок безопасности. Это может ввести в заблуждение разработчиков и регулирующие органы и привести к серьезным последствиям, если такие обманные системы будут использоваться в реальных приложениях.

В другом случае система искусственного интеллекта, обученная на отзывах людей, научилась получать высокие оценки от пользователей, обманывая их, создавая впечатление, что определенная цель была достигнута. Такое обманное поведение весьма опасно, поскольку подобные системы могут использоваться для мошеннических действий, манипулирования финансовыми рынками или влияния на выборы.
Исследователи требуют принятияtronправовых мер
На основании результатов исследования ученые заявляют о необходимости принятияtronправовых мер для противодействия угрозам, которые представляет собой обман с использованием искусственного интеллекта.
«Необходимы упреждающие решения, такие как нормативно-правовая база для оценки рисков обмана с помощью ИИ, законы, требующие прозрачности во взаимодействии с ИИ, а также дальнейшие исследования в области выявления и предотвращения обмана с помощью ИИ»
Исследовательская группа
Читайте также: Исследование показало, что ИИ потенциально может выявлять риск развития сердечной недостаточности.
В некоторых аспектах достигнут прогресс благодаря Закону ЕС об искусственном интеллекте и указуdent Джо Байдена о безопасности ИИ. Однако обеспечение соблюдения этих правил остаетсяmatic поскольку развитие ИИ идет быстрыми темпами, и пока нет эффективных способов управления этими системами.
Cryptopolitan репортаж Бренды Канана

