Инструмент Anthropic для обеспечения безопасности на основе искусственного интеллекта обнаружил 500 ошибок, которые пропустили люди, и Уолл-стрит запаниковала

- Компания Anthropic запустила Claude Code Security, инструмент на основе искусственного интеллекта, который сканирует целые кодовые базы на наличие уязвимостей.
- Рынки отреагировали резко, акции компаний, занимающихся кибербезопасностью, таких как CrowdStrike (-6,8%) и Okta (-9,2%), упали.
- Сообщается, что та же модель Claude Opus 4.6, на которой работает инструмент безопасности, была задействована в кибератаке, причинившей ущерб на сумму 1,78 млн долларов.
Компания Anthropic запустила ограниченную исследовательскую версию инструмента Claude Code Security, который сканирует программное обеспечение на наличие уязвимостей и рекомендует способы их устранения. Это значительный шаг в использовании искусственного интеллекта для киберзащиты, вызвавший настоящий фурор в индустрии кибербезопасности.
Инструмент, встроенный в платформу Claude Code от Anthropic, теперь доступен корпоративным и командным клиентам, а сопровождающим проектов с открытым исходным кодом предоставляется бесплатный ускоренный доступ. Это происходит на фоне заявлений компании из Сан-Франциско, занимающейся разработкой ИИ, о том, что в ближайшем будущем ИИ будет сканировать значительную часть мирового кода.
Существующие средства обеспечения безопасности работают только при обнаружении распространенных проблем, таких как раскрытые пароли или устаревшее шифрование.
Система Claude Code Security призвана выйти за рамки простого сопоставления шаблонов. Она анализирует весь кодтак же, как этосделалбы человек-исследователь, отслеживая путь данных в системе и выявляя проблемы, которые упускают из виду стандартные сканеры.
Результаты проходят несколько этапов проверки, прежде чем их увидит разработчик, что позволяет избежать тупиковых ситуаций. Каждая проблема также оценивается по степени серьезности, чтобы команды знали, с чего начать.
Программа работает на Claude Opus 4.6, новейшей модели Anthropic, которую собственная команда разработчиков Frontier Red Team тщательно тестировала. В ходе тестирования было обнаружено более 500 уязвимостей в действующих открытых исходных кодах — некоторые из них существовали десятилетиями, оставаясь незамеченными, даже после многолетней экспертной проверки.
Компания Anthropic заявляет, что в настоящее время занимается уведомлением лиц, ответственных за эти проекты. Компания также тестировала Claude на собственном внутреннем коде и утверждает, что результаты оказались весьмаtron.
Аналитики возражают, но рынки не убеждены
Эта новость потрясла инвесторов в сфере кибербезопасности. Акции CrowdStrike упали на 6,8% в пятницу, а Okta — на 9,2%, поскольку рынки начали задаваться вопросом, могут ли инструменты искусственного интеллекта подорвать бизнес устоявшихся компаний в сфере безопасности.
Акции Cloudflare упали на 6,7%, SailPoint — на 9,1%, а Palo Alto Networks — на 1,5%. Акции Zscaler снизились на 5,47%. ETF Global X Cybersecurity, отслеживающий деятельность компаний, занимающихся кибербезопасностью по всему миру, завершил день с падением почти на 5%.
Не все сочли такую реакцию оправданной. Аналитики Barclays назвали её «несоответствующей», заявив, что инструмент, созданный для защиты кода, на самом деле не может сравниться с тем, что делают такие компании, как CrowdStrike или Palo Alto Networks.
Однако разрыв между тем, что напугало рынки, и тем, что аналитики игнорируют, тревожно контрастирует с одним неопровержимым фактом: искусственный интеллект Anthropic обнаружил более 500 уязвимостей в работающем коде, которые существовали годами, а в некоторых случаях и десятилетиями, и ни один эксперт-человек их не заметил.
Какими бы ни были границы конкуренции, установленные аналитиками, этот инструмент сделал то, чего индустрии безопасности не удавалось сделать самостоятельно.
Предупреждение о кибератаках с использованием ИИ усиливает давление
Время запуска модели имеет свою неприятную иронию. Всего несколько дней назад Claude Opus 4.6, именно та модель, которая сейчас позиционируется как средство защиты от угроз, стала причиной убытков в размере 1,78 миллиона долларов в рамках DeFi -кредитования Moonwell.
Пороги для нанесения серьезного ущерба с помощью кода, написанного искусственным интеллектом, упали настолько низко, что для этого больше вообще не требуется злоумышленник. Эксперты по безопасности предупреждали об этом сдвиге в течение нескольких месяцев.
В своем собственном заявлении компания Anthropic признала ту же тенденцию, предупредив, что «менее опытные и обеспеченные ресурсами группы теперь потенциально могут совершать крупномасштабные атаки подобного рода»
компания заявила. «Но защитники, действующие оперативно, могут найти те же самые уязвимости, устранить их и снизить риск атаки».
Внутренние исследования компании, опубликованные в декабре 2025 года, пошли еще дальше, показав , что более ранняя версия модели, Claude Opus 4.5, моглаdentdentdentdentdentdentdentdentdenttractractractractractractractracсумму до 4,6 миллионов долларов в контролируемых условиях с минимальным участием человека.
Компания понимала, что её модели могут работать в обе стороны. Claude Code Security — это её решение этой проблемы. Она предоставляет защитные механизмы в распоряжение злоумышленников ещё до того, как те доберутся до уязвимого места.
Конкурент Anthropic, компания OpenAI, в октябре прошлого года представила собственный автоматизированный инструмент безопасности под названием Aardvark, что свидетельствует о том, что безопасность на основе ИИ становится полем конкурентной борьбы.
Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)















