OpenAIは金曜日、o3と呼ばれる新しいAIモデルファミリーのリリースを発表しました。同社は、新製品はo1を含む以前のモデルよりも進化していると主張しています。同社によると、この進歩は、ここ数ヶ月検討されてきたテスト時のコンピューティングのスケーリングの改善と、これらのモデルのトレーニングに使用されている新しい安全性パラダイムの導入によるものです。.
OpenAIは、AIの安全性向上に向けた継続的な取り組みの一環として、「熟慮に基づく整合」の実装を詳述した新たな研究成果。この新たな安全性手法は、AIの推論モデルが開発者によって設定された価値観と整合していることを保証することを目的としています。
OpenAIによると、このアプローチは、推論フェーズにおいてOpenAIの安全ポリシーについて考えるよう促すことで、o1モデルとo3モデルの整合性を向上させるために使用されたという。推論フェーズとは、ユーザーがモデルにプロンプトを送信してからモデルが応答を生成するまでの期間である。.
OpenAIは研究の中で、熟慮に基づく調整によって、モデルが「安全でない」回答や同社が安全ポリシー違反とみなす応答を生成する割合が減少し、無害な質問にもっと効果的に答えるモデルの能力が向上したと指摘している。.
熟慮された調整の仕組み
このプロセスの核心は、思考の連鎖段階においてモデルが自ら再提案を行うことです。例えば、ユーザーがChatGPTに質問を送信すると、AI推論モデルは数秒から数分かけて問題をより小さなステップに分解します。.
モデルは思考プロセスに基づいて回答を生成します。熟慮に基づくアライメントの場合、モデルは内部的な「熟慮」の一環としてOpenAIの安全ポリシーを組み込みます。
OpenAIは、o1とo3を含むモデルに対し、この思考プロセスの一環として、同社の安全方針の一部を想起するよう訓練しました。これは、機密性の高い、あるいは安全ではない質問に直面した際に、モデルが自己制御し、危害を及ぼす可能性のある回答を拒否することを確実にするためです。.
しかし、この安全機能の実装は困難であることが判明しました。OpenAI の研究者は、追加された安全性チェックがモデルの速度と効率に悪影響を及ぼさないことを確認する必要があったからです。.
引用したOpenAIの研究で示された例は、モデルが熟慮に基づく調整を用いて、潜在的に有害な要求に安全に対応する方法を示した。この例では、ユーザーがリアルな障害者用駐車許可証の作成方法を尋ねている。
モデルの内部的な思考連鎖の中で、モデルは OpenAI の安全ポリシーを思い出し、リクエストに違法行為 (駐車許可証の偽造) が含まれていることを認識し、支援を拒否して、拒否したことを謝罪します。.

こうした内部的な検討は、OpenAIがモデルを安全プロトコルに適合させる取り組みにおいて重要な部分を占めています。例えば「爆弾」のようなデリケートな話題に関する質問を単純にブロックすると、モデルの応答が過度に制限されてしまいますが、この検討的な調整によってAIは質問の具体的な文脈を評価し、回答するかどうかについてより微妙な判断を下すことができます。.
OpenAIは安全性の向上に加え、熟慮に基づくアライメントがモデル性能の向上に有効であることを示すベンチマークテストの結果も公開した。パレート図と呼ばれるベンチマークテストでは、一般的なジェイルブレイクやAIの安全対策を回避しようとする試みに対するモデルの耐性を測定する。.
これらのテストでは、OpenAI の o1-preview モデルは、安全でない出力を回避するという点で、GPT-4o、Gemini 1.5 Flash、Claude 3.5 Sonnet などの他の一般的なモデルよりも優れたパフォーマンスを発揮しました。.
イタリアのデータ保護当局がプライバシー違反でOpenAIに罰金を科す
これとは別に、関連した出来事として、OpenAIは、同社の個人データの取り扱いに関する調査を受けて、イタリアのデータ保護機関であるガランテから1500万ユーロ(1558万ドル)の罰金を科された。.
この罰金は、OpenAIが法的根拠なくユーザーの個人データを処理し、EUのプライバシー法で義務付けられている透明性とユーザー情報に関する義務に違反したという当局の判断によるものだ。.
ロイター通信によると、2023年に始まった調査では、OpenAIが適切な年齢確認システムを導入しておらず、13歳未満の子どもがAI生成の不適切なコンテンツにさらされる可能性があることも明らかになった。.
データ収集慣行についての認識を高めるために、OpenAIにイタリアで6か月間の公開キャンペーンを命じた。
これに対し、OpenAIは罰金を「不釣り合い」と表現し、控訴する意向を示した。さらに同社は、当該期間におけるイタリアでの収益と比較して、罰金が過度に高額であると批判した。.
ガランテ氏はまた、罰金はOpenAIの「協力的な姿勢」を考慮して算出されたと指摘し、同社が捜査中に協力的であるとみなされていなかったら罰金はもっと高かった可能性があると述べた。.
今回の罰金は、OpenAIがイタリアで調査を受ける初めてのケースではありません。昨年、ガランテはEUのプライバシー規則に違反した疑いで、ChatGPTのイタリアでの利用を一時的に禁止しました。OpenAIは、アルゴリズムの学習に個人データを使用することへの同意をユーザーが拒否できるようにするなど、懸念事項に対処した後、サービスを再開しました。

