dent Китая Си Цзиньпин иdent США Джо Байден на исторической конференции в Сан-Франциско в прошлом месяце пришли к соглашению о том, что крайне важно «устранить риски, связанные с передовыми системами искусственного интеллекта, и повысить безопасность ИИ». Хотя обе сверхдержавы обязались сотрудничать в контроле за использованием ИИ в армии, отсутствие конкретики и сохраняющиеся разногласия делают это маловероятным.
Преодоление геополитической турбулентности – проблема регулирования военного ИИ
По мере того как между Китаем и Соединенными Штатами усиливается гонка за превосходство в области искусственного интеллекта в военных приложениях, возникают опасения относительно их способности преодолеть геополитическое соперничество и эффективно управлять рисками, связанными с передовыми системами ИИ. Подчеркивая необходимость регулирования военного использования ИИ, лидеры обеих стран не смогли предоставить конкретных деталей во время своего недавнего саммита, что заставило международное сообщество усомниться в масштабах их обязательств.
Сотрудничество Китая, США и 96 других стран в 2019 году по разработке руководящих принципов для летальных автономных систем вооружения (ЛАВС), усовершенствованных с помощью ИИ, подчеркивает общее признание необходимости сохранения ответственности человека за их использование. Однако необязательный характер этих руководящих принципов и отсутствие общего defiЛАВС представляют собой значительные препятствия. Доктор Гуанъюй Цяо-Франко, доцент, специализирующийся на политологии и ИИ, выражает скептицизм по поводу способности США и Китая выйти за рамки существующих соглашений и эффективно сотрудничать. Основные мотивы ограничения технологического развития и повышения технологической независимости продолжают обострять отношения между двумя странами.
Многогранное применение ИИ в военных операциях вызывает опасения по поводу минимизации воздействия на гражданское население. Нил Дэвисон, старший научный и политический советник Международного комитета Красного Креста, подчеркивает необходимость того, чтобы нормативные акты были сосредоточены на конкретных приложениях ИИ, а не на общих принципах. Распознавание изображений дляdentцелей, анализ данных для принятия решений на поле боя и потенциал кибератак с использованием ИИ создают проблемы, требующие разработки специализированных нормативных рамок.
Взаимная уязвимость – потенциальный катализатор сотрудничества
Отсутствие четкого defiлетальных автономных систем вооружения осложняет усилия по их регулированию или запрету посредством международных договоров. Возникают разногласия между развитыми и развивающимися странами: более богатые государства выступают за узко defiограничения, позволяющие создавать точные и стабильные системы вооружения, управляемые искусственным интеллектом. Уникальное положение Китая, подчеркивающее его роль как представителя стран Глобального Юга, представляет собой проблему, поскольку он одновременно вкладывает значительные средства в исследования в области ИИ и предлагает узкое defiлетальных автономных систем вооружения.
Взаимная уязвимость, возникающая в результате развертывания военных систем искусственного интеллекта, может послужить катализатором для установления Китаем и США обязательных нормативных актов. Неформальные встречи между двумя странами, включая обсуждения между Центром международной безопасности и стратегии Университета Цинхуа и вашингтонским Институтом Брукингса, свидетельствуют о готовности к диалогу по вопросам ИИ. Доктор Лора Заалман, старший научный сотрудник Стокгольмского международного института исследований проблем мира, предполагает, что совмельное заявление США и Китая о важности человеческого контроля в процессе принятия решений в ядерной сфере может стать жизнеспособной отправной точкой.
Перспективы управления глобальными рисками, связанными с использованием ИИ в военных целях
Пока Китай и США разбираются со сложностями, связанными с рисками, вызванными искусственным интеллектом , остается вопрос: смогут ли эти мировые державы преодолеть свои геополитические разногласия и установить общий набор обязательных правил для военного применения ИИ? Трудности defi терминов, расходящиеся взгляды на системы вооружений и стремительные темпы технологического развития ИИ создают серьезные препятствия. Тем не менее, в свете взаимной уязвимости, есть проблеск надежды на то, что могут возникнуть совместные усилия, потенциально определяющие будущее ответственного использования ИИ в армии. Смогут ли эти страны найти общий язык и возглавить разработку эффективных правил, или геополитическая напряженность продолжит препятствовать прогрессу в этой критически важной области?

