Издание Anthropic сообщило о том, что, по его словам, это первый в истории подтвержденный случай кибератаки, спонсируемой правительством и организованной почти полностью с помощью искусственного интеллекта.
Согласно сообщению в блоге, опубликованному в четверг, компания обнаружила эту кампанию в середине сентября 2025 года, после того как заметила аномальное поведение, связанное с ее инструментом Claude Code.
Компания Anthropic абсолютно уверена, что шпионская операция проводилась спонсируемой китайским государством хакерской группой и включала проникновение примерно в тридцать важных объектов, в том числе в крупные технологические компании, банки, химические предприятия и правительственные учреждения в нескольких странах. Несколько из этих атак увенчались успехом.
Отличием этой киберкампании от предыдущих было не только то, кто за ней стоял, но и то, как она была осуществлена.
По данным компании Anthropic, примерно 80-90 процентов всей атаки было осуществлено с помощью искусственного интеллекта, а люди-операторы вмешивались лишь в принятие нескольких ключевых решений.
Хакеры взломали Claude и заставили его работать легально
Злоумышленники начали с создания автоматизированной системы атаки на основе модели искусственного интеллекта Claude Code, разработанной компанией Anthropic, и обманули её, заставив поверить, что она используется компанией, занимающейся кибербезопасностью и проводящей внутреннее тестирование.
Они взломали фильтры безопасности Клода с помощью джейлбрейка — тактики, которая позволила им обойти встроенную защиту, предоставляя ИИ небольшие, не зависящие от контекста задачи, которые сами по себе выглядели безобидными. Клод не знал, что его используют для наступательных операций, поскольку ему никогда не предоставлялась полная картина происходящего.
После запуска модели операция продвигалась быстро. Клод сканировал сеть каждой цели,dentнаиболее уязвимые участки инфраструктуры и составлял сводную информацию для операторов. Затем он начинал поиск уязвимостей в этих системах. Используя встроенные возможности программирования, Клод писал собственный эксплойт-код,dentслабые места и получалdentданные для входа. Затем он извлекал большие объемы внутренних данных, организовывал их по степени ценности и помечал учетные записи с высоким уровнем доступа.
После того как ИИ получил права администратора, он создал бэкдоры, обеспечивающие постоянный доступ к скомпрометированным системам. Затем Клод составил подробные отчеты обо всем, что он сделал (с указанием имен пользователей, взломанных систем иdentданных), чтобы фреймворк атаки мог использовать эту информацию для будущих операций.
Хотя Клод был чрезвычайно эффективен, он не был безупречен. Иногда он придумывал пароли илиdentопределял общедоступные данные как конфиденциальные. Но такие сбои случались редко и не замедляли выполнение общей задачи. Невероятная скорость работы ИИ, обрабатывающего тысячи запросов в секунду, значительно превосходила возможности любой команды людей.
Теперь агенты с искусственным интеллектом выполняют работу элитных хакерских группировок — практически без участия человека
Эта кампания — поворотный момент, потому что она показывает, насколько сильно продвинулся искусственный интеллект всего за один год. Клод буквально бегал по кругу, принимал решения и составлял сложные последовательности без прямых указаний.
Эта модель ИИ использовала инструменты из протокола Model Context Protocol, что давало ей доступ к внешнему программному обеспечению, такому как программы для взлома паролей, сетевые карты и средства для извлечения данных, которые ранее контролировались только человеком.
Система Claude теперь понимает сложные инструкции, самостоятельно пишет эксплойт-код и управляет сложными операциями по кибербезопасности практически без посторонней помощи. Эти агенты ИИ не просто помогают хакерам, они сами являются хакерами. И с каждым днем они становятся все более совершенными.
После обнаружения утечки данных компания Anthropic немедленно начала десятидневное расследование, блокируя вредоносные аккаунты один за другим. Они уведомили пострадавшие организации, сотрудничали с правоохранительными органами для передачи информации и расширили свои системы обнаружения, чтобы выявлять подобные операции в будущем.
Но компания не делает вид, что это разовая проблема. Команда утверждает, что подобные атаки будут становиться всё более распространёнными и их будет легче осуществить. Это связано с тем, что навыки, необходимые для их проведения, больше не являются прерогативой элитных хакеров. Если кто-то сможет взломать модель и подключить её к нужному набору инструментов, он сможет провести масштабную кампанию, не нуждаясь в команде или даже глубоких технических знаниях.
Издание Anthropic предупреждает об усилении угроз по мере того, как модели искусственного интеллекта развиваются и выходят за рамки человеческого контроля
Последствия колоссальны, потому что если команды без достаточного финансирования или технических навыков могут совершать атаки национального масштаба с помощью автоматизированных систем искусственного интеллекта, то антиутопия, несомненно, уже на пороге.
Команда Anthropic по анализу угроз предупреждает, что, хотя они tracэту активность только через Claude, вероятно, аналогичные злоупотребления происходят и с другими передовыми моделями ИИ. Они говорят, что это начало нового стандарта в кибервойне.
Так зачем же продолжать выпускать модели с такими возможностями, спросите вы? Компания Anthropic утверждает , что эти же инструменты необходимы для обороны, заявляя, что «искусственный интеллект, осуществивший атаку, был тем же самым, который аналитики Anthropic использовали для анализа обломков, выявления закономерностей и понимания масштабов операции в целом».
Однако они пообещали улучшить внутренние уровни безопасности своих моделей, а также усовершенствовать классификаторы для обнаружения атак и открыто публиковать подобные тематические исследования, чтобы другие участники отрасли могли подготовиться.
Тем не менее, в Anthropic заявляют, что полагаться только на них недостаточно. Они призывают всех разработчиков, работающих над крупными моделями, вкладывать значительные средства в обеспечение безопасности.
Они призывают команды по кибербезопасности начать интегрировать ИИ в системы обнаружения угроз, реагирования наdent , сканирования уязвимостей и автоматизации центров управления безопасностью, поскольку традиционные методы уже недостаточно быстры.

