Your bank is using your money. You’re getting the scraps.WATCH FREE

Предвещает ли внедрение Израилем военных систем на основе искусственного интеллекта зловещий поворот в ведении войны?

В этом посте:

  • Что касается жертв среди гражданского населения и международного права, использование израильскими военными систем искусственного интеллекта, таких как Lavender, является тревожным событием в боевых действиях.
  • Все семейные связи в Газе разрушены, и в результате действий этих систем, управляемых искусственным интеллектом, погибло большое количество мирных жителей, даже когда они делают точные заявления.
  • Растущее использование ИИ в военных действиях вызывает опасения относительно моральности и целесообразности доверия автоматизированным системам принятия решений, от которых зависят жизнь и смерть.

Израиль обвиняется вdentцелей для авиаударов в Газе с помощью системы искусственного интеллекта, что и привело к массовому убийству мирных жителей. Согласно недавнему расследованию израильских изданий +972 Magazine и Local Call, израильские военные якобы использовали базу данных на основе ИИ под названием Lavender для создания списка из 37 000 потенциальных целей, предположительно связанных с ХАМАС.

С 7 октября в Газе погибло более 33 000 палестинцев, а шестьdentисточников в израильской разведке, беседовавших с +972, заявили, что израильские военные командиры использовали список целей для одобрения авиаударов, которые привели к исключительно большому числу жертв среди гражданского населения.

Разрушительные последствия войны и военные системы с искусственным интеллектом

Военные системы, использующие искусственный интеллект (ИИ), такие как израильское программное обеспечение Lavender, привели к еще большим разрушениям в зонах конфликта, таких как Газа. Известная своей невероятной способностью обнаруживать боевиков ХАМАС, Lavender превратилась в обоюдоострое оружие, которое уничтожает мирные общины и разрушает жизни на своем пути. Заявленная точность в 90% скрывает ужасающую реальность того, как эта технология, при неосторожном использовании, может убивать невинных людей, оказавшихся под перекрестным огнем.

Источник сообщил изданию 972mag, что

«Нас просят искать высотные здания, в которых половина этажа принадлежит ХАМАСу»,

Источник: +972mag

Как известно, искусственный интеллект работает на основе множества факторов, и точность этих параметровdent от их тонкой настройки. Измените параметры данных, и компьютер начнет показывать нам различных сотрудников полиции и гражданской обороны, против которых применение бомб было бы неуместным, — сказал другой источник.

См. также  предложение Legend of Mushroom: бесплатные алмазы, купоны и многое другое.

Ещё одним сомнительным критерием была регулярная смена мобильных телефонов; большинство жителей Газы ежедневно сталкивались с социальным хаосом войны. Любой человек, оказывающий помощь ХАМАСу безвозмездно или ранее являвшийся его членом, также отмечался алгоритмом как подозрительный.

Как сообщил источник 971mag,

«Каждая из этих характеристик неверна»

Источник: +972mag

Этическая дилемма автоматизации на поле боя

Глубоко этические проблемы, связанные с войной, управляемой искусственным интеллектом, становятся все более актуальными по мере того, как рассеивается дым над зонами боевых действий. Идея «участия человека» в процессе боевых действий, когда-то считавшаяся сдерживающим фактором для безудержной автоматизации, сегодня рассматривается как тонкая грань, отделяющая алгоритмические решения от их практических последствий. Поучительный взгляд на мышление тех, кто отвечает за сложные аспекты современной войны, дают свидетельства израильских командиров, обсуждающих моральные последствия насилия, ставшего возможным благодаря искусственному интеллекту.

С тех пор как стало очевидно, насколько катастрофическими могут быть конфликты, спровоцированные искусственным интеллектом, людей не покидает один вопрос: могут ли люди действительно позволить себе дать машинам преимущество в вопросах жизни и смерти? Моральная ответственность и ответственное управление ресурсами сейчас важны как никогда, поскольку страны сталкиваются с моральными последствиями автоматизации и реальной опасностью насилия, осуществляемого с помощью ИИ. Опасность безудержного технологического роста наглядно демонстрируется историческими уроками в мире, находящемся на пороге ужасающего нового периода войн. 

См. также:  Прогноз продаж Apple и Инновации в области ИИ определяют стратегию на 2024 год.

Самые умные криптоаналитики уже читают нашу рассылку. Хотите присоединиться? Вступайте в их ряды .

Поделиться ссылкой:

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitan не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы настоятельно tron провести независимое dent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалютного рынка, получайте ежедневные обновления на свою электронную почту

Выбор редактора

Загрузка статей, выбранных редактором...

- Криптовалютная рассылка, которая поможет вам быть в курсе событий -

Рынки быстро меняются.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременные, точные и актуальные аналитические материалы о криптовалютах прямо на свою электронную почту.

Присоединяйтесь прямо сейчас и
ничего не пропустите.

Заходите. Получайте достоверную информацию.
Опережайте события.

Подпишитесь на CryptoPolitan