イラン南部のミナブ市で、米イスラエルによるイランへの空爆初日に学校が爆撃された。児童を含む175人以上が死亡した。ワシントンもテルアビブも何が起きたのか説明して誰も責任を取っていない。一つの疑問が繰り返し浮上している。AIシステムが誤って標的を攻撃したの?
最初の24時間で、米軍は約1,000か所を攻撃し、 1時間あたり約 Maven必要だったことを20人で実行。2024年末までに、米国はMavenに、消費者向けAIチャットボットの背後にあるのと同じタイプのソフトウェアである大規模言語モデルを組み込ん使用した最初の戦争の1つだった。
米軍はミナブへの攻撃現在も調査中と述べているシステムがミサイル発射にを果たしたについては明らかに。
ニューヨーク・タイムズは早い段階で、このシステムが古いデータに基づいて稼働しdentルイザ・ラヴラックはX紙に、今回の攻撃は「 10年前の情報オンラインでば、攻撃対象地の1つに「運動場のある学校」があったことが分かると書いた。
コンピュータ科学者のアン・トッティ・グエン氏は、AIビジョンシステムがどこで誤動作するのかを研究してきた。彼の論文「ビジョン言語モデルは盲目:詳細な視覚的特徴を言葉に変換できない」では、2つの構造物が近接している場合、ソフトウェアがどちらがどちらであるかを判断しなければならないため、これらのシステムがしばしば誤動作することを発見した。
ニューヨーク・タイムズの衛星画像には、ミナブにあるシャジャラ・タイエベ小学校が位置していることで指摘されていた配置と全く。
AIが誤った判断を下した場合、誰が責任を負うのか?
元海軍士官で、安全保障・新興技術センターの上級研究員であるエミリア・プロバスコ氏は、ポッドキャスト番組「ザ・フォー・キャスト」で、責任は命令を下した指揮官にあると述べた。それが軍隊の仕組みという。彼女は、AIシステムがどのように答えに至ったのかが分からないブラックボックス問題は、「解決済みの問題ではなく、現在も研究が続けられている分野だ」と語った。
戦争前、メイブンに搭載されている国防総省と点について契約上tracを抱えていた AIが生死に関わる通報に十分な信頼性を備えているかどうか、もう1つは、AIを使って散在するデータポイントを結びつけることが、大規模な監視ツールになってしまうのではないか、という点である。
プロバスコ氏どちらの懸念と述べた上で、 「民間企業が軍の作戦と指摘した。
ホランド・ミシェル氏議論が最悪のシナリオ人間が関与せずに標的を選ん機械のへと述べた。そのリスクは現実のものだが、現状はそうではない、と彼は語った。
「より困難で喫緊の課題は、 AIシステムをより透明性の高いものにし、AIの出力結果に頼る人間が、機械の提案にただ従うのではなく、真に情報に基づいた意思決定を行えるようにすることだ」と彼は述べた。
AIが生成した戦争関連コンテンツもオンラインで急速に
BBC Verifyは、 AIが作成した動画や改ざんされた衛星画像が紛争に関して拡散され数億回の再生回数を記録したtrac
クイーンズランド工科大学のデジタルメディア研究者であるティモシー・グラハム氏は、 「その規模は実に憂慮すべきもの、今回の戦争によってもはや無視することは不可能になった。 「はプロの映像制作が必要だったものが、今ではAIツールを使えば数分でできる。説得力のある合成紛争映像を作成する上での障壁は、事実上崩壊した」と付け加え
Xは、AIが作成した戦争映像をラベルなしで投稿したクリエイターを報酬支払いの対象から外すと発表した「彼らがこれが大きな問題」と評した。MetaとTikTokは、同様の措置を取る予定があるかとの質問に対し、回答。

