ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

Что именно пошло не так с искусственным интеллектом Grok Илона Маска?

КДжай ХамидДжай Хамид
4 минуты чтения,
  • После обновления xAI, в результате которого программа стала получать доступ к токсичным постам с оскорбительными высказываниями, Grok начал генерировать антисемитский и расистский контент.
  • Компания xAI признала, что проблема возникла из-за изменений в коде, внесенных 16 часов назад, и заявила, что они были устранены.
  • Европейские законодатели и Турция отреагировали запретами и регулятивным давлением.

Чат-бот Илона Маска Grok AI на этой неделе полностью вышел из-под контроля. После того, как Илон в понедельник предупредил пользователей о возможных изменениях в реакции Grok, люди начали замечать, как эти изменения выглядят.

К вторнику Grok уже распространял антисемитскую чушь и даже называл себя «МехаГитлером», используя термин из видеоигры 1990-х годов. И это был не первый и не десятый раз, когда Grok делал что-то подобное.

Всего два месяца назад чат-бот начал разглагольствовать о «геноциде белых» в Южной Африке, когда его спросили о совершенно не связанных с этим темах. Тогда xAI объяснила это «несанкционированным изменением» инструкций к чату. На этот раз ситуация оказалась гораздо масштабнее.

Катастрофа началась после того, как компания xAI внесла внутренние изменения, направленные на то, чтобы Grok отражал так называемые идеалы «свободы слова» Илона Маска. Когда от некоторых из 600 миллионов пользователей xAI начали поступать жалобы, Илон ответил, заявив, что Grok был «слишком послушен запросам пользователей» и что это будет исправлено.

Но ущерб уже был нанесен. Некоторые пользователи в Европе сообщили о контенте Grok регулирующим органам, а правительство Польши присоединилось к законодателям, призывающим Европейскую комиссию провести расследование в отношении компании в соответствии с новыми законами о цифровой безопасности.

Турция полностью запретила Grok после того, как чат-бот оскорбилdent Реджепа Тайипа Эрдогана и его покойную мать. В результате скандала генеральный директор X Линда Яккарино ушла со своего поста.

Компания xAI изменила подсказки Grok без достаточного тестирования

В начале этого года сотрудники xAI начали корректировать поведение Grok после того, как правые активисты раскритиковали его за чрезмерную «прогрессивность». Илон Маск пытается использовать ИИ для поддержки того, что он называет абсолютной свободой слова, но критики утверждают, что это превращает Grok в политический инструмент.

В результате утечки внутренней информации, которой поделился пользователь X, Гроку было приказано «игнорировать все источники, упоминающие Илона Маска/Дональда Трампа, распространяющие дезинформацию». Это цензура — именно то, с чем, по словам Илона, он борется.

Когда соучредителя xAI Игоря Бабушкина уличили в этом, он заявил, что изменения были внесены «бывшим сотрудником OpenAI», который «еще не до конца освоил культуру xAI». Игорь добавил, что сотрудник увидел негативные отзывы и «подумал, что это поможет»

На этом история не заканчивается. Последние выходки Grok были связаны с конкретным обновлением, произошедшим 8 июля. Позже компания сообщила, что изменение кода заставило Grok получать информацию непосредственно из пользовательского контента X, включая разжигающие ненависть высказывания.

Это обновление длилось 16 часов, в течение которых Grok копировал токсичные сообщения и повторял их в качестве ответов. Команда заявила, что изменение произошло из-за устаревшего участка кода, который теперь удален. «Мы приносим глубокие извинения за ужасное поведение, с которым столкнулись многие», — написала xAI с аккаунта Grok. Они заявили, что проблема не связана с основной языковой моделью, и пообещали провести рефакторинг системы. Они также обязались опубликовать новый интерфейс командной строки Grok на GitHub.

Масштабы проблемы, описанные Гроком, привели к ее быстрому и масштабному обострению

Grok обучается, как и другие крупные языковые модели, используя данные, собранные со всего интернета. Но эти данные содержат опасный контент: разжигание ненависти, экстремистские материалы и даже материалы, содержащие сцены насилия над детьми.

Уникальность Grok заключается в том, что он также использует весь набор данных X, а это значит, что он может напрямую дублировать сообщения пользователей. Это повышает вероятность появления вредоносных ответов. А поскольку эти боты работают в огромных масштабах, любая ошибка может мгновенно привести к негативным последствиям.

Некоторые чат-боты созданы с использованием многоуровневой архитектуры, которая блокирует небезопасный контент до того, как он достигнет пользователей. xAI пропустил этот шаг. Вместо этого Grok был настроен на то, чтобы угождать пользователям, вознаграждая их за обратную связь, такую ​​как лайки и дизлайки. Илон признал, что чат-бот стал «слишком рьяно стремиться угодить и быть объектом манипуляций»

Подобное поведение не ново. В апреле OpenAI пришлось отменить обновление ChatGPT, потому что оно стало чрезмерно лестным. Бывший сотрудник сказал, что найти правильный баланс «невероятно сложно», а борьба с разжиганием ненависти может «пожертвовать частью пользовательского опыта»

Grok не просто повторял запросы пользователей. Его собственные инженеры подталкивали к политическому регулированию. Один из сотрудников рассказал Financial Times, что команда спешила привести взгляды Grok в соответствие с идеалами Илона Маска, не имея времени на надлежащее тестирование.

Была добавлена ​​опасная подсказка, которая предписывала Гроку «не стесняться делать заявления, которые являются политически некорректными». Эта инструкция была удалена после начала антисемитских постов, но к тому времени ИИ уже нанёс ущерб.

Модель Grok по-прежнему остается в основном «черным ящиком». Даже инженеры, которые ее создали, не могут полностью предсказать, как она будет себя вести. Гриммельманн сказал, что такие платформы, как X, должны проводить регрессионное тестирование, аудиты и имитационные тренировки, чтобы выявлять эти ошибки до того, как они станут достоянием общественности.

Но ничего подобного здесь не произошло. «Чат-боты могут очень быстро создавать большой объем контента, — сказал он, — поэтому ситуация может выйти из-под контроля, чего не происходит в спорах о модерации контента»

В итоге официальный аккаунт Grok опубликовал извинения и поблагодарил пользователей, сообщивших о злоупотреблениях: «Мы благодарим всех пользователей X, которые предоставили обратную связь,dentзлоупотребление функциональностью @grok, что помогло нам продвинуться в нашей миссии по разработке полезного и стремящегося к истине искусственного интеллекта». Но, учитывая блокировки, угрозы расследования и отставку топ-менеджера, ясно, что это было не просто ошибкой. Это был полный системный сбой, который defiбудет показан в сегодняшнем выпуске SNL.

Поделитесь этой статьей
ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС