Your bank is using your money. You’re getting the scraps.WATCH FREE

Вооруженные силы США столкнулись с этической дилеммой в отношении автономного оружия

В этом посте:

  • Оружие, созданное с использованием искусственного интеллекта, представляет собой этическую угрозу, поскольку принимает смертоносные решенияdent, подвергая опасности жизни мирных жителей и нарушая законы о правах человека.
  • Политика Пентагона в отношении оружия, созданного с использованием искусственного интеллекта, лишена подотчетности и содержит лазейки, такие как исключения для неотложных военных нужд и исключение других правительственных учреждений.
  • Несмотря на призывы к их запрету, разработка оружия на основе искусственного интеллекта стремительно растёт по всему миру, чему способствуют геополитическая напряжённость и военные интересы.

Интеграция искусственного интеллекта ( ИИ ) в военные технологии вызвала серьезные этические опасения, особенно в отношении разработки и развертывания автономных систем вооружения. В недавнем докладе организации Public Citizen были освещены потенциальные опасности, связанные с использованием оружия, управляемого ИИ, и содержалось предупреждение о дегуманизации целей и риске нарушения международного права в области прав человека.

Проблемы подотчетности и недостатки политики

По мере того как Министерство обороны США и военныеtracпродвигаются вперед с внедрением искусственного интеллекта, возникают вопросы подотчетности и этического контроля. Профессор Джессика Вулфендейл из Университета Кейс Вестерн Резерв подчеркивает риск ошибочного выбора цели и пробел в подотчетности, возникающий, когда автономное оружие принимает решения без непосредственного участия человека.

В ответ на это Пентагон в январе 2023 года издал директиву, в которой изложил свою политику в отношении автономных и полуавтономных систем вооружения. Однако критики утверждают, что директива не затрагивает ключевые этические, правовые вопросы и вопросы подотчетности. Организация Human Rights Watch и Международная клиника по правам человека Гарвардской школы права указали на пробелы в этой политике, включая исключения из ее действия положений о проверке со стороны высшего руководства в случаях неотложных военных нужд и исключение других правительственных учреждений из ее сферы действия.

Международные последствия и тенденции развития

Отсутствие всеобъемлющих правовых рамок, регулирующих применение автономного оружия, усугубляет этическую дилемму. Хотя некоторые выступают за глобальный договор о запрете развертывания такого оружия, в реальности разработка автономного оружия уже ведется во всем мире, движимая геополитической напряженностью и интересами военно-промышленных комплексов.

См. также  Solana : цена SOL снижается до 23,75 долларов, медведи берут верх.

В Соединенных Штатах такие компании, как General Dynamics, Vigor Industrial и Anduril Industries, возглавляют разработку беспилотных танков, подводных лодок и дронов. Несмотря на заверения в соблюдении этических принципов и международного права, сохраняются опасения по поводу возможности принятия предвзятых решений и непреднамеренных жертв среди гражданского населения.

Этические аспекты в условиях технологического прогресса

Джереми Мозес, доцент, специализирующийся на этике войны, утверждает, что сосредоточение внимания на автономном оружииtracот более широких этических последствий войны. Он заявляет, что ответственность за решения о применении смертоносной силы в конечном итоге лежит на людях, принимающих решения, независимо от используемой технологии.

Кроме того, использование ИИ в военных действиях выходит за рамки автономного оружия, и такие технологии, как беспилотники, уже меняют масштабы конфликтов. Сторонники же превозносят их возможности точного наведения, в то время как критики указывают на случаи жертв среди гражданского населения в результате ошибочных разведывательных данных и алгоритмических ошибок.

Поскольку страны сталкиваются с этическими последствиями ведения войны с использованием искусственного интеллекта, становится крайне важным уделять первостепенное внимание прозрачности, подотчетности и международному сотрудничеству. Усилия по регулированию разработки и развертывания автономного оружия должны сопровождаться более широким обсуждением этических аспектов войны и ответственности лиц, принимающих решения в военных структурах.

В конечном счете, этический аспект войны развивается медленно, а распространение передовых технологий подчеркивает необходимость постоянного анализа и этического осмысления. Поскольку общество пытается разобраться с последствиями применения ИИ в конфликтах, поиск этической ясности остается актуальной задачей на пути к глобальному миру и безопасности.

См. также:  ли Bitcoin глобальному потеплению и изменению климата?

Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно .

Поделиться ссылкой:

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitan не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы настоятельно tron провести независимое dent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалютного рынка, получайте ежедневные обновления на свою электронную почту

Выбор редактора

Загрузка статей, выбранных редактором...

- Криптовалютная рассылка, которая поможет вам быть в курсе событий -

Рынки быстро меняются.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременные, точные и актуальные аналитические материалы о криптовалютах прямо на свою электронную почту.

Присоединяйтесь прямо сейчас и
ничего не пропустите.

Заходите. Получайте достоверную информацию.
Опережайте события.

Подпишитесь на CryptoPolitan