Googleは、主力の人工知能(AI)モデル「Gemini 2.5 Pro」に関する安全性に関する報告書を公開した。専門家は、この報告書には主要なリスクが未解明のままだと指摘している。.
同社は、 Gemini 2.5 Proを顧客にリリースしてから数週間後の木曜日に、論文 TechCrunch、詳細が欠落しているため、Gemini 2.5 Proが本当に広く安全に使用できるかどうかを判断するのが困難だと語った。
技術レポートは、高度なAIシステムの機能と限界を一般の人々が知るための主要な手段の一つです。詳細なレポートは、モデルの欠陥や誤用の可能性を示すことがよくあります。多くのAI研究者は、これらの論文を企業の安全性に関する主張を裏付ける誠実な努力として捉えています。.
Google では安全性レポートを別の方法で処理します。.
Googleは、モデルが「実験的」タグが解除された後にのみレポートを公開し、特定の「危険な機能」の発見事項は、一度に公開されない別の監査に移行します。そのため、公開されたレポートは、Googleがテストしたすべての脅威を網羅しているわけではありません。.
複数のアナリストは、Gemini 2.5 Proの最新文書は情報開示が限定的であることの顕著な例だと指摘した。また、報告書ではGoogleのFrontier Safety Framework(FSF)について一切言及されていない点にも注目した。FSFは、Googleが昨年発表した、将来のAI技術が「深刻な危害」をもたらす可能性を察知するためのポリシーである。
「この報告書は非常に乏しく、情報も最小限で、モデルが公開されてから数週間後に届いた」と、AI政策戦略研究所の共同創設者であるピーター・ワイルドフォード氏は述べた。「Googleが自社の約束を守っているかどうかを確認することは不可能であり、したがって、同社のモデルの安全性とセキュリティを判断することも不可能だ。」
セキュアAIプロジェクトの共同創設者であるトーマス・ウッドサイド氏は、論文が発表されただけでも喜ばしいと述べたものの、グーグルが定期的に続報を発表する計画には疑問を呈した。同社が最後に危険な能力のテスト結果を発表したのは2024年6月であり、その論文は同年2月に発表されたモデルを対象としていたことを指摘した。.
Googleが先週発表した、より薄型で高速なモデル「Gemini 2.5 Flash」の安全性に関する文書が公開されなかったことで、信頼感はさらに低下した。同社の広報担当者は、Flashの安全性に関する文書は「近日公開予定」だと述べた。
「より頻繁なアップデートを開始するという、これが本当の約束であることを願っています」とウッドサイド氏は述べた。「アップデートには、まだ公表されていないモデルの結果も含まれるべきです。なぜなら、それらのモデルも深刻なリスクをもたらす可能性があるからです。」
Googleは今や透明性が不足している
Metaの新しいLlama 4モデルの安全性注意事項はわずか数ページですが、OpenAIはGPT-4.1シリーズに関するレポートを一切公開しないことを選択しました。
詳細の不足は、緊迫した時期に起きている。2年前、グーグルは表明した。同社は他の国の当局者にも同様の約束をしており、自社のAI製品について「公的な透明性」を提供するとしている。
民主主義技術センターのAIガバナンス担当上級顧問ケビン・バンクストン氏は、大手研究機関によるデータの公開を安全性に関する「底辺への競争」と呼んだ。.
「OpenAIなどのライバル研究室がリリース前の安全性テストの時間を数か月から数日に短縮したという報告と合わせて、Googleのトップモデルに関するこの乏しいドキュメントは、企業がモデルを市場に急いで投入する中で、AIの安全性と透明性をめぐる競争が激化しているという憂慮すべき状況を物語っている」と彼は付け加えた。.
Googleは、安全性確保のための取り組みの多くは非公開で行われていると述べている。同社は、すべてのモデルは一般公開前に「敵対的レッドチームテスト」を含む厳格なテストを受けていると述べている。.

