Глава ООН, г-н Слотри Антонио Гутерриш, выражает глубокую озабоченность сообщениями о том, что Израиль интересуется возможностью использования искусственного интеллекта для слежки за целями в Газе. Эти новости, опубликованные израильским журналом +972, дают возможность переосмыслить методы работы вооруженных сил, поднимая важные вопросы, связанные с участием ИИ в современных войнах.
Использование искусственного интеллекта в военных действиях, как это рассматривает ООН, становится все более актуальной проблемой
Первоначально источником его опасений стало преднамеренное использование ИИ израильскими военными для бомбардировок гражданских районов и населенных пунктов. Генеральный секретарь указал на опасность, возникающую, когда системы полагаются на алгоритмы для выполнения таких функций, как принятие ключевых решений, оказывающих огромное влияние на жизнь мирных жителей. В высказывании ректора можно увидеть растущую глобальную проблему этических и правовых аспектов использования ИИ в зоне конфликта, с особым акцентом на ответственность и безопасность комбатантов.
В отчете +972 содержится несколько ключевых деталей
В статье +972 сделан вывод о применении подобных технологий ИИ в военных действиях в секторе Газа, при этом принятие решений о целях осуществлялось с минимальным участием человека в боевых операциях. В других случаях решения часто принимались в течение нескольких секунд, как показывает пример оценки ИИ, которая оказалась достаточной для принятия мер в отношении цели всего за 20 секунд. Такая краткосрочная перспектива ставит под сомнение адекватность процессаdent. Здесь сообщается, что принятый подход заключается в том, что приписывание вины большому числу жителей Газы как потенциальным целям позволило свести к минимуму вмешательство человека и обеспечить якобы гибкую политику в отношении ущербаdentхарактера.
Признание Израилем своих ошибок
В своем примечательном заявлении Израиль признал ряд ошибок, приведших к трагической гибели семи сотрудников гуманитарных организаций, которые повлекли за собой их причастность к операциям ХАМАС в Газе, ранее считавшимся действиями вооруженных боевиков ХАМАС. Эти признания отражают лишь катастрофы, вызванные технологической войной, проблемы и ошибки, допущенные во время войны, особенно в густонаселенных зонах боевых действий. Такой случай подчеркивает решающую роль тщательно контролируемого надзора и подотчетности при использовании приложений искусственного интеллекта в зоне боевых действий.
Интеграция ИИ в милитаристские стратегии — это весьма примечательное событие, играющее ключевую роль в ведении и регулировании войн. Точная наводка и эффективность являются положительными результатами, в то время как использование искусственного интеллекта (ИИ) в военных действиях будет зависеть от алгоритмов. Однако моральные, правовые и гуманитарные проблемы, возникающие при использовании компьютера в качестве «разведчика» и «лица, принимающего решения», сложны и вызывают разногласия. Случай в Газе, демонстрирующий дилеммы, связанные с использованием искусственного интеллекта в вооруженном конфликте, представляет собой более широкий круг вопросов — от технологического прогресса до существующего баланса между защитой гражданского населения, человеческим благополучием и требованиями войны.
dentстатьи: https://www.jamaicaobserver.com/2024/04/05/un-chief-deeply-troubled-reports-israel-using-ai-identify-gaza-targets/

