オーストラリアのジョージー・パーセル下院議員は最近、本人の同意なくデジタル加工された画像で身体が歪められ、衣服の一部が削除されたことに対し、懸念を表明しました。この事件は、AI技術が抑制されないまま利用dent が、性差別や差別につながりかねない可能性を浮き彫りにしています。.
AI支援ツールは日常的に簡単に使えると考えられがちですが、意図せず社会的な偏見を助長してしまう可能性があります。写真編集を指示された場合、これらのツールは、特に女性の画像に多く見られる若々しさや性的魅力など、社会が推奨する特定の属性を強調してしまう可能性があります。.
性的なディープフェイクコンテンツの急増、特に女性をターゲットとしたコンテンツが深刻な懸念を引き起こしています。報告によると、ディープフェイク動画の90~95%は、実に合意のないポルノであり、その約90%は女性を被害者としています。合意のない性的なディープフェイク画像の作成と共有事例は世界中で発生しており、若い女性やテイラー・スウィフトのようなセレブリティを含む、様々な年齢層の人々に影響を与えています。.
世界的な行動の必要性
一部の地域では、性的ディープフェイクの合意のない共有に対処するための法整備が進められていますが、その作成に関する法律は、特に米国において依然として一貫性に欠けています。国際的な統一的な規制の欠如は、この問題に効果的に対処するためには、世界的な協調行動の必要性を浮き彫りにしています。.
AI生成コンテンツを検出する取り組みは、技術の進歩と、性的に露骨なコンテンツの作成を容易にするアプリの増加によって困難に直面しています。しかし、技術だけに責任を負わせることは、ユーザーの安全と権利を最優先する技術開発者とデジタルプラットフォームの責任を見落としています。.
オーストラリアは、eSafetyコミッショナー事務局などのイニシアチブや、デジタルプラットフォームに非合意コンテンツの防止と削除の責任を課す国内法などを通じて、この点において主導的な措置を講じてきました。しかし、非合意の性的ディープフェイクによる被害を効果的に軽減するには、より広範な国際協力と積極的な対策が不可欠です。.
画像編集におけるAIの無制限な利用と、性的表現を含むディープフェイクコンテンツの蔓延は重大な課題を提起しており、包括的な規制枠組みと世界的な協調行動を必要としています。技術開発と執行においてユーザーの安全と権利を最優先することで、社会はAIを活用した虐待に関連するジェンダーに基づく被害を軽減するための取り組みを進めることができます。.

