В ходе новаторского исследования, проливающего свет на меняющуюся ситуацию в сфере кибербезопасности, Microsoft и OpenAI выявили тревожную тенденцию: государства используют искусственный интеллект в качестве оружия в кибератаках. Сотрудничество этих технологических гигантов показало использование больших языковых моделей (LLM) видными субъектами угроз, связанными с ведущими мировыми державами, что знаменует собой значительный шаг вперед в области кибербезопасности.
Государственные APT-группировки, использующие OpenAI
Экспертные оценки текущего состояния и потенциальных будущих последствий киберугроз, основанных на искусственном интеллекте, проливают свет на меняющуюся ситуацию в сфере кибербезопасности. Эти злоумышленники, связанные с Китаем, Ираном, Северной Кореей и Россией, используют ИИ в различных целях, от сбора разведывательной информации до фишинговых атак и генерации кода. Среди известных группировок, использующих технологию OpenAI для вредоносных действий, можно назвать Fancy Bear, Charcoal Typhoon и Crimson Sandstorm.
«Фэнси Беар», также известная как «Лесная метель», печально известная своей связью с Главным управлением Генерального штаба Вооруженных сил Российской Федерации (ГРУ), привлекает специалистов по управлению мобильными телефонами к операциям по разработке сценариев, сбору разведывательной информации и исследованию протоколов спутниковой связи, что особенно актуально в контексте конфликта на Украине.
Китайские государственные структуры, такие как «Угольный тайфун» и «Лосось», демонстрируют мастерство в использовании искусственного интеллекта для таких задач, как сбор информации, генерация скриптов и социальная инженерия. Аналогичным образом, иранская группировка «Багровый песчаный шторм» использует OpenAI для разработки обманных фишинговых материалов и оптимизации операций с помощью сгенерированных ИИ фрагментов кода.
Emerald Sleet, приписываемый режиму Ким Чен Ына, занимается базовыми задачами по написанию скриптов и генерацией фишингового контента, а также использует LLM-технологии для исследования уязвимостей и сбора разведывательной информации, связанной с обороной. Эти примеры подчеркивают разнообразие и развитие применения ИИ в кибер-операциях со стороны государственных угроз.
Использование ИИ в качестве оружия – влияние ИИ на кибербезопасность пока остается ограниченным
Несмотря на использование LLM-технологий злоумышленниками, эксперты подчеркивают, что влияние ИИ на кибератаки остается ограниченным, в основном, он служит для расширения существующих возможностей, а не для революционного изменения методов атак. Однако существуют опасения относительно масштабируемости и адаптивности атак с использованием ИИ, что побуждает к постоянной бдительности и соблюдению передовых методов кибербезопасности.
Джозеф Тэкер, ведущий инженер по искусственному интеллекту и исследователь в области безопасности в AppOmni, подчеркивает, что, хотя ИИ предоставляет преимущества для злоумышленников, его преобразующий потенциал еще не полностью реализован. Тэкер предполагает, что злоумышленники, обладающие навыками разработки программного обеспечения, используют LLM для ускорения создания вредоносного кода, тем самым повышая свою операционную эффективность. Однако он подчеркивает, что фундаментальная природа киберугроз не претерпела существенных изменений, и ИИ в основном способствует постепенным улучшениям, а не революционным инновациям в методах атак.
Текер подчеркивает потенциал расширения масштабов и охвата атак с использованием ИИ, чему способствует универсальность языков перевода и преобразования кода. Хотя современные кибер-операции с использованием ИИ могут не демонстрировать новых методов, Текер предупреждает о возможности необнаруженных достижений в области угроз, основанных на ИИ. В связи с этим он выступает за проактивный подход к кибербезопасности, подчеркивая важность постоянного мониторинга и надежных мер защиты для смягчения развивающихся угроз.
кибер-операции государств представляет собой как вызов, так и возможности для заинтересованных сторон в сфере кибербезопасности. Хотя текущие наблюдения показывают, что атаки с использованием ИИ еще не достигли своего полного потенциала, динамичный характер технологий требует постоянной бдительности и адаптации. По мере развития ландшафта кибербезопасности остается вопрос: как организации могут эффективно ориентироваться на стыке ИИ и кибервойны для защиты от возникающих угроз?

