В эпоху технологического прогресса правила ведения войны defi кардинальные matic . Искусственный интеллект (ИИ) становится решающим фактором на поле боя, поднимая сложные вопросы о передаче принятия решений на аутсорсинг и этических аспектах его использования. По мере того как страны стремятся разрабатывать военные приложения на основе ИИ, становится все более очевидным, dent ИИ будет играть решающую роль в будущих конфликтах.
Одна из важных областей, где искусственный интеллект проявляет себя, — это авиация. Анонс компанией Boeing беспилотника MQ-28 «Ghost Bat» в июне 2023 года стал важной вехой. Этот передовой беспилотник использует ИИ для поддержки существующих флотов истребителей, tracдружественные и вражеские самолеты. Однако, что может показаться неожиданным, ВВС США уже добились автономного полета на истребителе ранее в том же году.
В 2022 году модифицированный истребитель F-16 VISTA X-62A успешно совершил автономный полет с авиабазы Эдвардс в Калифорнии. Во время испытательного полета VISTA продемонстрировал сложные маневры истребителя, что стало историческим достижением, поскольку это первый тактический самолет, успешно управляемый с помощью искусственного интеллекта.
Программа Skyborg: расширение возможностей пилотов-людей
В 2019 году ВВС США запустили программу «Скайборг» по разработке системы управления беспилотными летательными аппаратами с поддержкой искусственного интеллекта. Год спустя программа продемонстрировала свою совместимость с летательными аппаратами различныхtracблагодаря своей автономной базовой системе.
Запрос бюджета ВВС США на 2023 год, превышающий 100 миллионов долларов, свидетельствует о приверженности развитию исследований в области автономных платформ для совместной работы (ACP). Эти платформы потенциально могут обеспечить экономически эффективную поддержку с воздуха, особенно на Тихоокеанском театре военных действий. М. Кристофер Коттинг, директор по исследованиям в Школе летчиков-испытателей ВВС, подчеркнул, что цель состоит не в замене пилотов-людей, а в расширении их возможностей. Искусственный интеллект может дать менее опытным пилотам преимущество, компенсируя недостаток опыта.
Подготовка солдат к интеграции ИИ
По мере того как искусственный интеллект все шире применяется в военных целях, возрастает потребность в том, чтобы солдаты эффективно взаимодействовали с системами ИИ. В 2023 году исследователи из Массачусетского технологического института в сотрудничестве с ВВС США инициировали программы обучения военнослужащих работе с ИИ. Цель этих программ — дать солдатам навыки, необходимые для использования всего потенциала технологий ИИ на поле боя.
Влияние ИИ выходит за рамки истребителей. В 2022 году Министерство обороны Израиля представило планы по испытанию роботизированной автономной системы обнаружения и поражения целей (ROBUST), среднеразмерной роботизированной боевой машины (MRCV). ROBUST предназначена для автономного обнаружения и поражения целей, демонстрируя универсальность ИИ в военной технике.
Аналогичным образом, украинская компания devDROID в 2023 году представила управляемые ИИ турели, предназначенные для окопной войны. Эти турели могут подниматься из окопов, наводиться на цели и рассчитывать баллистику, хотя подтверждение поражения цели осуществляется операторами-людьми. Это нововведение обещает произвести революцию в пехотной стратегии.
Влияние ИИ распространяется от неба до морей. В декабре 2023 года военно-морские силы США, Великобритании и Австралии начали тестирование ИИ для tracкитайских подводных лодок в Тихом океане в рамках соглашения о технологическом обмене Aukus Pillar II. Алгоритмы ИИ обрабатывают гидролокационные данные из различных систем, повышая точность и эффективность tracподводных лодок и надводных кораблей.
Растущая тенденция внедрения искусственного интеллекта в военные летательные аппараты предлагает множество преимуществ, включая экономию средств, точное наведение на цель и снижение потерь. Снижение человеческого фактора риска позволяет операторам принимать более обоснованные решения во время воздушного боя. Однако эти достижения сопряжены с рисками.
Проблема кибербезопасности
В условиях нестабильной обстановки крайне важно установить нормы, функциональные роли и инфраструктуру для беспилотных боевых систем. Серьезной проблемой является управление кибербезопасностью этих систем, управляемых искусственным интеллектом. Контроль и ответственность за кибербезопасность военных систем часто распределены между несколькими организациями, что создает проблемы с принятием решений и обеспечением подотчетности.
Хотя алгоритмы могут упростить процессы принятия решений, им не хватает гибкости и инстинктивной способности к суждениям, присущих человеку. В некоторых ситуациях решения, принимаемые за доли секунды на основе человеческого инстинкта, имеют решающее значение для сохранения жизни. Найти правильный баланс между ИИ и участием человека остается сложной задачей.
Учитывая транснациональный характер ИИ, понимание его проблем и возможностей имеет важное значение для разработки эффективных нормативных актов. Новые технологии, такие как биотехнология, робототехника, квантовые вычисления и ИИ, имеют огромные последствия для военных применений. Таким образом, крайне важно создать четкие нормативные рамки, прежде чем эти возможности станут неконтролируемыми.
Глобальные меры реагирования на применение ИИ в военных действиях
Проблемы управления, связанные с использованием ИИ в обороне и безопасности, сложны и многогранны. США и Европейский союз предприняли значительные шаги по регулированию ИИ в военных целях. Исполнительный указdent Джо Байдена направлен на установление безопасных, надежных и заслуживающих доверия стандартов ИИ, а также на противодействие военному использованию ИИ противниками. Европейский союз принял законодательство о регулировании ИИ, требующее от компаний раскрытия данных обучения и предусматривающее существенные штрафы за нарушения.

