イスラエルは、人工知能システムを用いてガザ地区への空爆の標的をdentし、多数の民間人の虐殺を可能にしたとして非難されている。イスラエルを拠点とする+972マガジンとローカルコールによる最近の調査によると、イスラエル軍はラベンダーと呼ばれるAI搭載データベースを利用して、ハマスと関連があるとみられる3万7000件の標的候補リストを作成したとされる。.
10月7日以降、ガザ地区では3万3000人以上のパレスチナ人が死亡しており、+972の取材に応じた身元dentのイスラエル諜報機関関係者6人は、イスラエル軍司令官が標的リストを利用して空爆を承認し、その結果、極めて多くの民間人が犠牲になったと主張した。.
戦争とAI軍事システムの破壊
イスラエルのラベンダー・ソフトウェアのような人工知能(AI)搭載の軍事システムは、ガザのような紛争地域でさらなる破壊をもたらしている。ハマスの人員を驚異的な精度で探知することで知られるラベンダーは、民間人のコミュニティを蹂躙し、人々の生活を破壊する諸刃の武器と化している。公称精度90%という数字は、この技術が不用意に使用されると、巻き添えになった罪のない人々を死に至らしめるという恐ろしい現実を覆い隠している。.
情報筋が972magに語ったところによると、
「我々は、ハマスが関与していると考えられる、半フロア分の高層ビルを探すよう指示されている。」
出典: +972mag
周知のとおり、人工知能はさまざまな要素に基づいて動作し、これらのパラメータの精度は微調整にdent します。データパラメータを変更すると、コンピュータは爆弾を使用するのが不適切なさまざまな警察官や民間防衛関係者を提示し始めると、別の情報源は述べています。.
もう一つの疑わしい基準は、携帯電話が定期的に交換されているかどうかだった。ガザの住民のほとんどは、戦争による社会的な混乱に日々対処していた。報酬を受け取らずにハマスを支援した者、あるいは過去にハマスのメンバーだった者も、同様にアルゴリズムによって疑わしい人物としてマークされた。.
971magの情報源によると、
「これらの特徴はどれも不正確です」
出典: +972mag
戦場における自動化の倫理的難問
戦場の煙が晴れると、AI主導の戦争に関する倫理的な問題がますます深刻化してくる。かつては無制限の自動化を抑止するものとして称賛された「人間が介入する」という考え方は、今日ではアルゴリズムによる判断と実際の影響を隔てる細い境界線と見なされている。現代戦の複雑さを監督する任務を負う人々の思考を垣間見ることができるのが、人工知能によって可能になった暴力の倫理的帰結について議論するイスラエル軍司令官たちの証言である。.
AI主導の紛争がいかに悲惨な結果をもたらすかが明らかになって以来、人々の間で一つの懸念がつきまとっている。それは、人間は本当に生死に関わる問題で機械に主導権を握らせる余裕があるのか、という問いだ。各国が自動化の倫理的帰結とAIによる暴力の現実的な危険性に直面する中で、倫理的責任と責任ある管理はこれまで以上に重要になっている。新たな恐ろしい戦争の時代に突入しようとしている世界において、無制限の技術発展の危険性は、歴史の教訓によって鮮明に示されている。.

