Интеграция искусственного интеллекта ( ИИ ) в военные технологии вызвала серьезные этические опасения, особенно в отношении разработки и развертывания автономных систем вооружения. В недавнем докладе организации Public Citizen были освещены потенциальные опасности, связанные с использованием оружия, управляемого ИИ, и содержалось предупреждение о дегуманизации целей и риске нарушения международного права в области прав человека.
Проблемы подотчетности и недостатки политики
По мере того как Министерство обороны США и военныеtracпродвигаются вперед с внедрением искусственного интеллекта, возникают вопросы подотчетности и этического контроля. Профессор Джессика Вулфендейл из Университета Кейс Вестерн Резерв подчеркивает риск ошибочного выбора цели и пробел в подотчетности, возникающий, когда автономное оружие принимает решения без непосредственного участия человека.
В ответ на это Пентагон в январе 2023 года издал директиву, в которой изложил свою политику в отношении автономных и полуавтономных систем вооружения. Однако критики утверждают, что директива не затрагивает ключевые этические, правовые вопросы и вопросы подотчетности. Организация Human Rights Watch и Международная клиника по правам человека Гарвардской школы права указали на пробелы в этой политике, включая исключения из ее действия положений о проверке со стороны высшего руководства в случаях неотложных военных нужд и исключение других правительственных учреждений из ее сферы действия.
Международные последствия и тенденции развития
Отсутствие всеобъемлющих правовых рамок, регулирующих применение автономного оружия, усугубляет этическую дилемму. Хотя некоторые выступают за глобальный договор о запрете развертывания такого оружия, в реальности разработка автономного оружия уже ведется во всем мире, движимая геополитической напряженностью и интересами военно-промышленных комплексов.
В Соединенных Штатах такие компании, как General Dynamics, Vigor Industrial и Anduril Industries, возглавляют разработку беспилотных танков, подводных лодок и дронов. Несмотря на заверения в соблюдении этических принципов и международного права, сохраняются опасения по поводу возможности принятия предвзятых решений и непреднамеренных жертв среди гражданского населения.
Этические аспекты в условиях технологического прогресса
Джереми Мозес, доцент, специализирующийся на этике войны, утверждает, что сосредоточение внимания на автономном оружииtracот более широких этических последствий войны. Он заявляет, что ответственность за решения о применении смертоносной силы в конечном итоге лежит на людях, принимающих решения, независимо от используемой технологии.
Кроме того, использование ИИ в военных действиях выходит за рамки автономного оружия, и такие технологии, как беспилотники, уже меняют масштабы конфликтов. Сторонники же превозносят их возможности точного наведения, в то время как критики указывают на случаи жертв среди гражданского населения в результате ошибочных разведывательных данных и алгоритмических ошибок.
Поскольку страны сталкиваются с этическими последствиями ведения войны с использованием искусственного интеллекта, становится крайне важным уделять первостепенное внимание прозрачности, подотчетности и международному сотрудничеству. Усилия по регулированию разработки и развертывания автономного оружия должны сопровождаться более широким обсуждением этических аспектов войны и ответственности лиц, принимающих решения в военных структурах.
В конечном счете, этический аспект войны развивается медленно, а распространение передовых технологий подчеркивает необходимость постоянного анализа и этического осмысления. Поскольку общество пытается разобраться с последствиями применения ИИ в конфликтах, поиск этической ясности остается актуальной задачей на пути к глобальному миру и безопасности.

