米国の法執行機関は、児童を題材にした性的に露骨なAIディープフェイクの膨大な量により、実際に苦しんでいる児童と偽物の児童を区別することが困難になっていると、検察官や安全団体が警告している。ガーディアン紙によると、画像があまりにもリアルであるため、実際の児童が虐待を受けているかどうかを見分けるのが難しくなっているという。.
こちらもご覧ください: ChatGPT搭載のテディベア「Poe」が子供たちに就寝時のお話を読み聞かせます
ミネソタ州に拠点を置く児童保護NPO「ゼロ・アブーズ・プロジェクト」の上級弁護士、クリスティーナ・コロボフ氏によると、性的虐待を受けていない実在の子供の画像がAIによって作成されたという報告が同団体にも寄せられ始めているという。「しかし今、その子供の顔が虐待を受けた子供の顔に載っているのです」と彼女は言う。.
司法省検察官、AIのせいで「我々は溺れつつある」と発言
「ビデオや画像に映る寝具や背景、犯人、あるいはその動画や画像がどのシリーズなのかは分かるのですが、今度はそこに別の子どもの顔が付けられているのです」とコロボフ氏はガーディアン紙に語った。
AIモデルは、実写写真に酷似した画像や動画を1日に数千枚も生成できる。報告書によると、この技術によって、ダークウェブや一般インターネット上で、犯罪者がこの技術を利用して不適切なコンテンツを拡散することが容易になっているという。.
当局にとって、これは悪夢となっている。「法執行の観点から見ると、児童に対する犯罪は最もリソースが限られている分野の一つであり、AI由来のコンテンツが爆発的に増加するだろう」と米国司法省(DoJ)の検察官は述べ、次のように付け加えた。
「私たちはすでにこのことに溺れつつあるのです。」
米国国立行方不明・搾取児童センター( NCMEC )によると、2023年にはオンライン児童虐待の報告件数が12%増加し、3,620万件に達した。報告のほとんどは性的虐待を受けた児童の実写写真や動画の流通に関連したものだったが、児童の性的搾取に関わるAIディープフェイク画像や動画に関する報告も4,700件寄せられた。
NCMECによると、犯罪者がAIを利用する最も一般的な方法の一つは、既存のオンライン画像を編集して性的表現を加えることだという。犯罪者はまた、児童を虐待の対象に仕立て上げる方法を視覚的に指示する生成型AIチャットボットも活用している。.
現行法はAIディープフェイクに対して十分ではない
犯罪とみなされるものには、明確な基準がないようです。多くの法域では、児童を性的に客体化する画像の所持は犯罪ですが、AI生成画像を取り込む法律はまだ整備されていません。.
「連邦制度下での起訴において、AIによって起訴できる内容が変わることはありませんが、多くの州では、被告が実在の子供であることを証明できなければなりません」と司法省の検察官は述べた。検察官はさらにこう付け加えた。
「画像の正当性をめぐる論争は裁判で問題を引き起こします。もし私が弁護士だったら、まさにそう主張するでしょう。」
たとえ法律が制定されたとしても、犯罪者を逮捕するには依然としてそれを実現する技術が必要であり、現状では大きなギャップが存在する。児童安全団体は、警察への要請が殺到する可能性があると警告している。.
ガーディアン紙の報道によると、AIで生成された子供の性的に露骨な画像は、OpenAIによるChatGPTのリリースと同時期の2022年頃からオンラインでの存在感を高め始めた
NCMECは、AI企業が搾取的なコンテンツの生成と拡散の防止に十分な対策を講じていないと非難している。昨年、同センターに自主的に報告書を提出したAI企業はわずか5社だった。一方、ソーシャルメディアプラットフォームの70%が報告書を共有したとNCMECは述べている。.

