Роботы-убийцы уже на поле боя и зарекомендовали себя весьма разрушительным оружием. Нам стоит беспокоиться – и очень беспокоиться. Поскольку они доказали свой смертоносный потенциал в войнах в Газе и на Украине, последствия могут быть разрушительными, если с ними обращаться неосторожно. 3 апреля израильское издание журнала +972 опубликовало отчёт об использовании Израилем искусственного интеллекта дляdentцелей в Газе.
Система искусственного интеллекта называется «Лаванда» и, как утверждается, составляла списки предполагаемых боевиков ХАМАС, включая тех, кто занимал низшие должности. Мы не знаем, насколько точными были эти списки, но самое тревожное заключается в том, что её использовали для уничтожения боевиков, даже если они находились дома с семьями, детьми и множеством мирных жителей. На диаграмме ниже показано число жертв и раненых по состоянию на 15 апреля.

Алгоритмы сообщают, на кого нацеливаться
Какdent большое число жертв среди мирного населения и масштабные разрушения инфраструктуры после вторжения Израиля в Газу, доклад вызвал серьёзную обеспокоенность у гуманитарных организаций, правительственных чиновников и всех здравомыслящих людей по всему миру, включая США. Генеральный секретарь Организации Объединённых Наций Антониу Гутерриш заявил, что он «глубоко обеспокоен», а пресс-секретарь Белого дома Джон Кирби заявил, что «США внимательно изучают доклад».
Гутерриш выразил большую обеспокоенность по поводу жертв и сказал:
«Ни одна часть решений, касающихся жизни и смерти, которые затрагивают целые семьи, не должна делегироваться холодному расчету алгоритмов».
Источник: Worldpoliticsreview .
Доклад был опубликован послеdent , в ходе которого Израиль напал на семерых западных гуманитарных работников, некоторые из которых были бывшими британскими военнослужащими. Это, конечно же, побудило судей и юристов по всей Великобритании прекратить продажу оружия Израилю в связи с его военными преступлениями и серьёзными нарушениями международного права.
Другой взгляд на роботов-убийц

Организация «Кампания против роботов-убийц» выразила свою обеспокоенность, но заявила, что это не то, против чего они выступают с 2012 года, поскольку, по их словам, это система обработки данных, и окончательное решение об открытии огня остаётся за человеком. Однако одно из их заявлений даёт ещё один повод для размышлений. Заявление было опубликовано после публикации новости, говорится в нём:
«Отсутствие значимого человеческого контроля и участия в принятии решений об атаке рекомендуемых целей».
Источник: Worldpoliticsreview .
В этом заявлении используется выражение «отсутствие значимого человеческого контроля», что добавляет еще один уровень сложности к уже осужденному искусственному интеллекту и роботам-убийцам, а также дает активистам новый повод для беспокойства.
Искусственный интеллект обычно изображается так, что однажды он может захватить планету и причинить катастрофический ущерб , вплоть до вымирания человечества. Но ещё более тревожным фактом является то, что силы, использующие его, будут проявлять меньшую осторожность при нацеливании, что сделает их менее ответственными, что приведёт к принятию неэтичных решений в войнах, как мы уже видели в Газе. Таким образом, в конечном счёте, речь идёт не о том, что роботы принимают решения против людей, а о том, что люди принимают роботизированные решения, не используя в полной мере свои собственные когнитивные способности в таких деликатных ситуациях, связанных с жизнью и смертью. Как упоминается в отчёте источник,
«Машина сделала это хладнокровно».
Источник: +972mag.
Есть и другой аспект: это может подорвать способность программистов эффективно взаимодействовать с системами искусственного интеллекта, что может привести к военным преступлениям.

