Национальный центр кибербезопасности Великобритании (NCSC) предупредил о потенциальной угрозе, которую могут представлять вредоносные программы, созданные с помощью искусственного интеллекта, к 2025 году. В недавнем отчете NCSC, агентства, входящего в состав Правительственного центра связи (GCHQ), говорится о «реальной вероятности» того, что высококвалифицированные государственные структуры могут использовать ИИ для создания вредоносных программ, обходящих существующие фильтры безопасности. Это развитие событий может положить начало новой эре киберугроз, затрагивающих все аспекты кибербезопасности, от обнаружения уязвимых устройств до анализа данных и даже атак с использованием методов социальной инженерии.
Вредоносное ПО, созданное с помощью ИИ, уже на горизонте
В отчете NCSC подчеркивается, что ИИ потенциально способен создавать вредоносное ПО, способное обходить существующие меры безопасности, но для его обучения требуются высококачественные данные об уязвимостях. Агентство считает, что некоторые высококвалифицированные государственные структуры могут обладать достаточно обширными хранилищами вредоносного ПО для эффективного обучения моделей ИИ в этих целях. Хотя самые продвинутые кибератаки с использованием ИИ, как ожидается, появятся в 2026 году или позже, первыми пользователями инструментов генеративного ИИ, вероятно, окажутся наиболее способные злоумышленники.
Влияние ИИ на уязвимые устройства и анализ данных
Национальный центр кибербезопасности (NCSC) прогнозирует, что ИИ упростит злоумышленникам обнаружение уязвимых устройств, сократив время, доступное защитникам для их устранения до начала эксплуатации. Более того, ИИ улучшит анализ данных в реальном времени, позволяя злоумышленникам быстроdentценные файлы, повышая эффективность деструктивных действий, вымогательства и шпионажа.
В докладе отмечается, что для использования передовых технологий ИИ в кибероперациях необходимы экспертные знания, оборудование, финансовые ресурсы и доступ к качественным данным. Высококвалифицированные государственные структуры лучше всего подготовлены к использованию потенциала ИИ в сложных кибератаках. Однако ожидается, что даже злоумышленники с ограниченными навыками и ресурсами смогут извлечь выгоду из достижений в области ИИ в ближайшие четыре года.
Искусственный интеллект расширяет возможности киберпреступников
В нижней части спектра киберпреступники, использующие методы социальной инженерии, предположительно будут применять общедоступные инструменты генеративного ИИ, такие как ChatGPT, Google Bard и Microsoft Copilot. Это может привести к более убедительным и локализованным фишинговым атакам. Кроме того, группы, использующие программы-вымогатели, могут применять ИИ для анализа данных, что позволит им более эффективно вымогать деньги,dentвыявляя ценные данные.
Вызовы для специалистов по кибербезопасности
Национальный центр кибербезопасности (NCSC) прогнозирует, что в ближайшие два года кибератаки с использованием искусственного интеллекта будут расти в объеме и масштабах, что усугубит проблемы, стоящие перед специалистами по кибербезопасности. Эти специалисты уже сталкиваются с постоянно меняющимися угрозами, и ожидается, что ИИ сыграет значительную роль в формировании ландшафта угроз.
Национальный центр кибербезопасности (NCSC) внимательно следит за развитием ИИ в сфере киберугроз. Ежегодная конференция CYBERUK, которая состоится в мае, будет посвящена значительной угрозе национальной безопасности, которую представляют эти новые технологии. Уходящая с поста генерального директора Линди Кэмерон подчеркнула необходимость управления рисками, связанными с ИИ, одновременно используя его потенциал для ответственного развития.
Глобальные усилия по устранению угроз безопасности искусственного интеллекта
Предупреждение Национального центра кибербезопасности (NCSC) последовало за первым Саммитом по безопасности ИИ, состоявшимся в Великобритании, который привел к принятию Блетчлийской декларации — глобальной инициативы по управлению рисками, связанными с ИИ. В рамках этих усилий ведущие разработчики ИИ обязались делиться кодом с правительствами для обеспечения ответственного развития ИИ.
Хотя план тестирования ИИ является шагом в правильном направлении, он не имеет обязательной юридической силы и не пользуется поддержкой некоторых стран. Это вызывает вопросы о его эффективности в борьбе с растущей угрозой кибератак с использованием ИИ.
Предупреждение NCSC подчеркивает меняющуюся картину угроз в киберпространстве, где на горизонте маячит вредоносное ПО, использующее искусственный интеллект. Обладая потенциалом обходить существующие меры безопасности, ИИ создает проблемы для специалистов по кибербезопасности, правительств и организаций. По мере того, как мир сталкивается с последствиями ИИ в киберугрозах, бдительность и международное сотрудничество будут иметь решающее значение для опережения возникающих угроз.

