Your bank is using your money. You’re getting the scraps.WATCH FREE

Роботы-убийцы — это не роботы, а люди

В этом посте:

  • Роботы-убийцы уже присутствуют на земле и доказывают свое разрушительное воздействие на человечество.
  • Люди по всему миру обеспокоены безрассудным использованием систем искусственного интеллекта в войнах.
  • Настоящая опасность в данный момент исходит не от робота, а от человека, который управляет им без должной осторожности или, возможно, со злым умыслом.

Роботы-убийцы уже на поле боя и зарекомендовали себя весьма разрушительным оружием. Нам стоит беспокоиться – и очень беспокоиться. Поскольку они доказали свой смертоносный потенциал в войнах в Газе и на Украине, последствия могут быть разрушительными, если с ними обращаться неосторожно. 3 апреля израильское издание журнала +972 опубликовало отчёт об использовании Израилем искусственного интеллекта дляdentцелей в Газе. 

Система искусственного интеллекта называется «Лаванда» и, как утверждается, составляла списки предполагаемых боевиков ХАМАС, включая тех, кто занимал низшие должности. Мы не знаем, насколько точными были эти списки, но самое тревожное заключается в том, что её использовали для уничтожения боевиков, даже если они находились дома с семьями, детьми и множеством мирных жителей. На диаграмме ниже показано число жертв и раненых по состоянию на 15 апреля.

Источник: Statista .

Алгоритмы сообщают, на кого нацеливаться

Какdent большое число жертв среди мирного населения и масштабные разрушения инфраструктуры после вторжения Израиля в Газу, доклад вызвал серьёзную обеспокоенность у гуманитарных организаций, правительственных чиновников и всех здравомыслящих людей по всему миру, включая США. Генеральный секретарь Организации Объединённых Наций Антониу Гутерриш заявил, что он «глубоко обеспокоен», а пресс-секретарь Белого дома Джон Кирби заявил, что «США внимательно изучают доклад».

См. также:  Zoom устранил опасения по поводу конфиденциальности, связанные со сбором данных с помощью ИИ, в условиях предоставления услуг.

Гутерриш выразил большую обеспокоенность по поводу жертв и сказал:

 «Ни одна часть решений, касающихся жизни и смерти, которые затрагивают целые семьи, не должна делегироваться холодному расчету алгоритмов».

Источник: Worldpoliticsreview .

Доклад был опубликован послеdent , в ходе которого Израиль напал на семерых западных гуманитарных работников, некоторые из которых были бывшими британскими военнослужащими. Это, конечно же, побудило судей и юристов по всей Великобритании прекратить продажу оружия Израилю в связи с его военными преступлениями и серьёзными нарушениями международного права.

Другой взгляд на роботов-убийц

Aljazeera визуализирует обстановку в секторе Газа в ноябре, основываясь на статистике Управления по координации гуманитарных вопросов (УКГВ). Источник: Aljazeera .

Организация «Кампания против роботов-убийц» выразила свою обеспокоенность, но заявила, что это не то, против чего они выступают с 2012 года, поскольку, по их словам, это система обработки данных, и окончательное решение об открытии огня остаётся за человеком. Однако одно из их заявлений даёт ещё один повод для размышлений. Заявление было опубликовано после публикации новости, говорится в нём:

«Отсутствие значимого человеческого контроля и участия в принятии решений об атаке рекомендуемых целей».

Источник: Worldpoliticsreview .

В этом заявлении используется выражение «отсутствие значимого человеческого контроля», что добавляет еще один уровень сложности к уже осужденному искусственному интеллекту и роботам-убийцам, а также дает активистам новый повод для беспокойства.

См. также:  OpenAI раскрывает «цепочку мыслей» в модели o3-mini от ChatGPT, чтобы соответствовать ажиотажу вокруг открытого исходного кода DeepSeek.

Искусственный интеллект обычно изображается так, что однажды он может захватить планету и причинить катастрофический ущерб , вплоть до вымирания человечества. Но ещё более тревожным фактом является то, что силы, использующие его, будут проявлять меньшую осторожность при нацеливании, что сделает их менее ответственными, что приведёт к принятию неэтичных решений в войнах, как мы уже видели в Газе. Таким образом, в конечном счёте, речь идёт не о том, что роботы принимают решения против людей, а о том, что люди принимают роботизированные решения, не используя в полной мере свои собственные когнитивные способности в таких деликатных ситуациях, связанных с жизнью и смертью. Как упоминается в отчёте источник,

«Машина сделала это хладнокровно».

Источник: +972mag.

Есть и другой аспект: это может подорвать способность программистов эффективно взаимодействовать с системами искусственного интеллекта, что может привести к военным преступлениям.

Если вы это читаете, значит, вы уже впереди. Оставайтесь на шаг впереди, подписавшись на нашу рассылку .

Поделиться ссылкой:

Предупреждение:  Предоставленная информация не является торговой рекомендацией. Cryptopolitan не несет ответственности за любые инвестиции, совершенные на основе информации, представленной на этой странице. Мы tron рекомендуем провести независимое dent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалютного рынка, получайте ежедневные обновления на свою электронную почту

Выбор редактора

Загрузка статей, выбранных редактором...

- Криптовалютная рассылка, которая поможет вам быть в курсе событий -

Рынки быстро меняются.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременные, точные и актуальные аналитические материалы о криптовалютах прямо на свою электронную почту.

Присоединяйтесь прямо сейчас и
ничего не пропустите.

Заходите. Получайте достоверную информацию.
Опережайте события.

Подпишитесь на CryptoPolitan