Согласно отчету PwC, по мере развития ландшафта кибербезопасности 70% руководителей технологических и бизнес-компаний планируют внедрить генеративный ИИ для киберзащиты в течение следующих 12 месяцев. Этот сдвиг происходит в ответ на растущую изощренность киберугроз, обусловленную способностью генеративного ИИ создавать убедительные деловые электронные письма в больших масштабах.
Поднимаем тревогу по вопросам кибербезопасности
Цифровая среда постоянно развивается, как и тактика киберпреступников. Традиционные системы кибербезопасности сталкиваются с растущими проблемами, в первую очередь из-за расширения возможностей генеративного искусственного интеллекта. Согласно отчету PwC Digital Trust Insights за 2024 год, 70% руководителей технологических и бизнес-компаний ожидают использования генеративного ИИ в качестве ключевого компонента своей стратегии киберзащиты.
Эта разработка призвана смягчить растущее беспокойство по поводу традиционных методов кибербезопасности, поскольку способность генеративного ИИ создавать сложные деловые электронные письма в больших масштабах усиливает опасность киберугроз. Согласно мнению экспертов отрасли, 52% ожидают, что генеративный ИИ станет причиной катастрофических кибератак в течение следующего года.
Двойственная природа генеративного ИИ
Хотя генеративный ИИ обещает укрепить киберзащиту, он также представляет собой грозный инструмент в арсенале киберпреступников. Злоумышленники могут использовать возможности этой технологии для создания привлекательных электронных писем и реалистичного контента в формате дипфейк, включая видео, записи и изображения, чтобы атаковать ничего не подозревающих людей с помощью фишинговых схем.
В отчете SlashNext об угрозах в режиме реального времени отмечается, что киберпреступники являются одними из наиболее частых пользователей чат-ботов на основе больших языковых моделей (LLM). Эти злоумышленники используют LLM-чат-боты для создания атак с использованием компрометации корпоративной электронной почты (BEC) и проведения тщательно спланированных фишинговых кампаний. С момента запуска ChatGPT от OpenAI в конце 2022 года количество вредоносных фишинговых писем увеличилось на впечатляющие 1265%.
Кроме того, адаптивность генеративного ИИ позволяет злоумышленникам легко модифицировать существующие коды атак, делая их достаточно отличающимися, чтобы избежать обнаружения. Распространенность генеративного ИИ стала центральной темой в даркнете, и упоминания о нем множатся в течение текущего года.
Развивающиеся угрозы и саморазвивающееся вредоносное ПО
Одним из наиболее тревожных аспектов генеративного ИИ в кибератаках является создание штаммов вредоносного ПО, способных к самоэволюции. Эти штаммы генерируют вариации, адаптированные для атаки конкретных целей, используя уникальные методы, полезные нагрузки и полиморфный код. Такая адаптивность эффективно обходит обнаружение существующими мерами безопасности. В этой высококонкурентной сфере кибербезопасности только самые гибкие и адаптивные организации смогут сохранить преимущество перед этими постоянно развивающимися угрозами.
Укрепление киберзащиты
Для усиления защиты от растущих угроз, исходящих от кибератак с использованием генеративного искусственного интеллекта, эксперты отрасли подчеркивают следующие стратегии:
1. Обеспечьте безопасность всего конвейера обработки данных ИИ
Обеспечение безопасности и шифрование данных, используемых при обучении и тонкой настройке моделей ИИ, имеет решающее значение. Непрерывное сканирование на наличие уязвимостей, вредоносного ПО и повреждений в процессе разработки моделиdentкак критически важный шаг в укреплении защиты от потенциальных нарушений.
2. Совместные обсуждения на уровне совета директоров
Руководители из областей кибербезопасности, технологий, обработки данных и операционной деятельности должны собраться на уровне совета директоров для обсуждения. Эти обсуждения должны быть сосредоточены на меняющихся рисках, в частности, на том, как генеративный искусственный интеллект может быть использован для раскрытия конфиденциальных данных и обеспечения несанкционированного доступа к системам.
3. Инновационные системы обнаружения и защиты
Хотя существующие меры безопасности можно расширить для защиты инфраструктуры и данных, поддерживающих системы ИИ, крайне важно понимать необходимость инновационных методов, специально разработанных для обнаружения и предотвращения атак со стороны враждебных ИИ. Проактивные меры необходимы для противодействия растущей волне киберугроз, исходящих от генеративного ИИ.
Поскольку генеративный ИИ становится одновременно и ценным активом для защитников, и мощным оружием в руках киберпреступников, организациям необходимо найти тонкий баланс. Внедрение этой технологии для этичного и ответственного использования при одновременном усилении мер кибербезопасности имеет первостепенное значение. Повышение осведомленности, обеспечение безопасности конвейера ИИ и инвестиции в передовые средства защиты — ключи к успешной ориентации в постоянно меняющемся ландшафте кибербезопасности. В цифровом мире, характеризующемся постоянными изменениями, эти стратегии будут необходимы для защиты конфиденциальных данных и поддержания доверия в цифровой среде.

