殺人ロボットはすでに戦場に出ており、かなり破壊的な兵器であることが証明されています。 私たちは心配すべきです - 実際、非常に心配しています。 ガザやウクライナでの戦争でそれらが致命的な潜在力を持っていることが証明されているように、それらが不用意に扱われた場合、壊滅的な結果を招く可能性があります。 4 月 3 日付けの +972 誌で、イスラエルの出版物は、イスラエルがガザ地区の標的を特定dentために AI を使用していることに関するレポートを掲載しました。
このAIシステムは「ラベンダー」と呼ばれ、下層階級で働いている者も含めたハマス容疑者の殺害リストを作成したと言われている。 このリストがどれほど正しかったのかは分かりませんが、最も憂慮すべき事実は、たとえ彼らが家族や子供たち、そして周囲に多くの民間人と一緒に家にいる場合であっても、このリストが過激派を標的にするために使用されたということです。 下のグラフは4月15日までの死傷者数を示している。
アルゴリズムが誰をターゲットにするかを指示している
イスラエルによるガザ侵攻後の多数の民間人死亡と大規模なインフラ破壊から明らかdentように、この報告書は人道団体、政府関係者、そして世界中と米国のすべての良識ある個人に深刻な懸念を引き起こした。 国連のアントニオ・グテーレス事務総長は「深く憂慮している」と述べ、ホワイトハウスのジョン・カービー報道官は「米国は報告書を注意深く検討している」と述べた。
グテレス氏は死傷者に対して一層の懸念を示し、次のように述べた。
「家族全体に影響を与える生死の決定のいかなる部分も、アルゴリズムの冷静な計算に委ねるべきではありません。」
出典: Worldpoliticsreview 。
この報告書は、イスラエルが西側援助従事者7名を標的にして殺害し、その中には元英国軍関係者もいたというdentの後に発表された。 これは当然、英国中の判事や弁護士らを動かし、イスラエルの戦争犯罪と重大な国際法違反を理由にイスラエルへの武器売却を中止するよう求めた。
殺人ロボットについての別の次元の考え方
キラーロボットを阻止するキャンペーンは懸念を示しながらも、キラーロボットは2012年以来キャンペーンを行ってきたものではないと述べ、彼らによれば、それはデータ処理システムであり、発砲の最終決定は人間の手に委ねられているが、彼らの声明の1つは別の側面を提供するについて考える。 この声明はニュースの公表後に出されたもので、次のように述べた。
「推奨された標的を攻撃する決定に人間による有意義な制御と関与が欠如している。」
出典: Worldpoliticsreview 。
この声明では「意味のある人間による制御の欠如」という言葉が使われているが、これはすでに非難されている人工知能と殺人ロボットにさらなる複雑さを加え、運動家たちに提唱すべき新たな懸念を与えている。
人工知能は通常、いつか地球を乗っ取り、壊滅的な被害、さらには人類の絶滅を引き起こす可能性があるものとして描かれています。 しかし、より憂慮すべき事実は、それらを使用する勢力は標的を狙う際の注意力が低下し、それによって彼らの責任が薄れ、その結果、すでにガザで見られたように、戦争において非倫理的な決定を下すことになるということである。 結局のところ、問題はロボットが人間に対して意思決定を下すということではなく、人間が生死にかかわるデリケートな状況において自らの認知能力を最大限に活用することなくロボット的な意思決定を下すということなのです。 報告書はある情報筋の発言に言及している。
「機械が冷酷にやってくれました。」
出典: +972等。
これには別の側面もあります。これにより、プログラマーが AI システムと効果的に通信する能力が損なわれ、戦争犯罪につながる可能性があります。
元のニュース記事はここで。