スタンフォード・インターネット・オブザーバトリーは、AI画像生成器の学習に用いられるデータセット「LAION-5B」に、1,000枚を超える偽の児童性的虐待画像が含まれているという、悲惨な発見をしました。4月に公表されたこの発見は、AI学習教材の作成に用いられた情報源と手法について深刻な懸念を引き起こしています。.
ロンドンに拠点を置くStability AI社のStable Diffusion AI画像生成ツールと連携したLAION-5Bは、ソーシャルメディアやポルノサイトからコンテンツをサンプリングすることでこれらの画像を蓄積しました。これらのプラットフォームの広範な利用と潜在的な影響力を考えると、AIのトレーニング教材にこのようなコンテンツが発見されたことは憂慮すべき事態です。.
テクノロジーで課題に取り組む
スタンフォード大学の研究者たちは、これらの画像をdentために、虐待コンテンツを直接確認したわけではありません。代わりに、MicrosoftのPhotoDNA技術を活用しました。これは、ハッシュ化された画像と様々なデータベースに蓄積された既知の虐待コンテンツを照合することで、児童虐待画像を検出するツールです。.
スタンフォード大学の研究チームは、米国とカナダの関係非営利団体に調査結果を伝え、AIトレーニングデータセットのキュレーションにおいてより厳格な措置を早急に講じる必要があることを改めて強調しました。研究者らは、今後のデータセット編集において有害なコンテンツをフィルタリングするために、PhotoDNAなどのツールを活用することを提案しています。しかし同時に、特に中央集権的なホスティング機関が存在しない状況下では、オープンデータセットのクリーニングが困難であることも浮き彫りにしています。.
この報告を受けて、LAION(大規模人工知能オープンネットワーク)は、データセットの安全性を確保するために、再公開前に一時的にデータセットを削除しました。LAIONは、違法コンテンツに対するゼロトレランス(不寛容)方針と、このようなセンシティブな資料の取り扱いには注意が必要であることを強調しました。.
より広範な影響と対応
この問題は、問題のデータセットに限ったものではありません。スタンフォード大学の報告書は、たとえ少数の虐待画像であってもAIツールに大きな影響を与え、数千ものディープフェイクを生成する可能性があることを示唆しています。これは、実際の被害者に対する虐待を永続させるだけでなく、増幅させるため、若者や子供たちにとって世界的な脅威となります。.
多くの生成AIプロジェクトの市場投入の急ぎは批判されており、スタンフォード・インターネット・オブザーバトリーの主任技術者であるデイビッド・ティール氏をはじめとする専門家は、データセットの収集にさらに厳格な注意を払うべきだと主張しています。ティール氏は、インターネット全体にわたるこのような大規模なスクレイピングは研究活動に限定されるべきであり、徹底的な審査なしにオープンソース化すべきではないと強調しています。.
これらの調査結果を受け、LAIONデータセットの主要ユーザーであるStability AIは、悪用リスクを軽減するための対策を講じました。同社のStable Diffusionモデルの最新バージョンは、有害コンテンツの作成をより困難にするように設計されています。しかし、昨年リリースされた旧バージョンは依然としてリスクを伴い、他のアプリケーションで広く使用されています。.
この問題に対する国際的な反応は様々です。米国では、政府がAIモデルのリスクを評価するためのAI安全研究所を設立しました。同様に、オーストラリアでは、AIが作成した児童性的虐待コンテンツの共有を防ぐための新しいアルゴリズムを導入しています。英国では、主要なAI開発者が政府と協力して、新しいモデルのリリース前にテストを行うことに合意しました。.
英国で開催されたグローバルAI安全サミットでは、米国、インド、そして欧州連合を含む25カ国以上が「ブレッチリー宣言」に署名しました。この合意は、AI監視に関する共通のアプローチを確立することを目指しており、AIリスクを責任を持って管理するという国際社会のコミットメントを強調しています。.
AI学習用データセットに児童ポルノが含まれていたことは、深刻な倫理的および安全上の懸念を引き起こしています。これは、AI技術の開発において、より厳格なデータキュレーションと監視メカニズムの必要性を浮き彫りにしています。AIが進化を続け、生活の様々な側面に浸透するにつれ、これらの技術の倫理的な利用と安全な展開を確保することがますます重要になっています。.

