AI生成コンテンツの急増に対する懸念の高まりを受けて、大手テクノロジー企業はそのようなコンテンツの検出とラベル付けを目的とした取り組みを発表した。.
dentのディープフェイクポルノスキャンダルや政治的ディープフェイクの蔓延といった事件を受けて行われている。
Big Tech Bands が協力して、AI 生成コンテンツのラベル付けと検出を行います。.
旧FacebookのMetaは、Facebook、Instagram、Threadsなどのプラットフォーム上でAI生成画像にラベルを付ける計画を発表しました。これらのラベル、目に見えるマーカー、目に見えない透かし、そして画像ファイルに埋め込まれたメタデータは、コンテンツの出所に関する透明性と説明責任を高めることを目的としています。.
一方、GoogleはC2PA(コンテンツ真正性イニシアチブ)の運営委員会に加わり、コンテンツの「栄養ラベル」を提供することを目的としたオープンソースのインターネットプロトコルを支持しています。これは、AI生成コンテンツを検出するための業界標準を確立するための、テクノロジー大手企業間の協力的な取り組みを示すものです。.
OpenAIがコンテンツの来歴測定を実装
OpenAIもこの問題に対処するための対策を導入しました。同社のAIモデルであるChatGPTとDALL-E 3で生成された画像のメタデータに透かしを追加し、コンテンツ作成におけるAIの関与を示す目に見えるラベルを提供します。.
これらの方法は一歩前進ではあるものの、完璧というわけではなく、AI が生成したビデオ、オーディオ、テキストのラベル付けや検出には課題が残っています。.
課題と将来の展望
コンテンツのラベル付けと透かし技術は進歩しているものの、技術的な限界は依然として存在します。メタデータ内の透かしはスクリーンショットを撮ることで回避できますが、視覚的なラベルは切り取りや編集の影響を受けやすいという問題があります。GoogleのSynthIDのような目に見えない透かしは、より堅牢性が高いものの、課題がないわけではありません。.
規制枠組みの必要性
自主的な対策に加え、規制の枠組みも tracを見せています。EUのAI法やデジタルサービス法といった取り組みでは、AI生成コンテンツの開示と有害コンテンツの迅速な削除が義務付けられています。米国議会もディープフェイクに関する拘束力のある規則を検討しており、連邦通信委員会は最近、ロボコールにおけるAIの使用を禁止しました。.
自主ガイドラインは正しい方向への一歩ではあるものの、業界の説明責任については依然として懸念が残る。テクノロジー業界はこれまで自主規制を行ってきた経緯があり、自主規制の有効性には疑問が残る。しかしながら、最近の発表は、これまでの不作為に比べれば進歩を示していると言える。.

