谷歌发布了一份关于其旗舰人工智能模型 Gemini 2.5 Pro 的安全报告。专家表示,该报告并未解释一些关键风险。.
该公司于周四发布了这份技术文档,距离其向客户发布 Gemini 2.5 Pro 已过去数周。该文档列出了谷歌对该模型进行的内部测试,但并未提供关于系统在过载或滥用情况下如何运行的具体信息。审阅过该文档的研究人员告诉TechCrunch ,由于缺少细节,很难判断 Gemini 2.5 Pro 是否真的可以安全地广泛使用。
技术报告是公众了解先进人工智能系统功能和局限性的主要途径之一。一份详尽的报告通常会指出模型的不足之处以及可能被滥用的地方。许多人工智能研究人员将这些报告视为公司为支持其安全声明而做出的诚实努力。.
谷歌处理安全报告的方式有所不同。.
谷歌只有在模型不再被标记为“实验性”后才会发布报告,并且会将某些“危险能力”方面的发现转移到单独的审计报告中,该报告不会同时发布。因此,公开的报告并未涵盖谷歌测试过的所有威胁。.
多位分析师指出,新发布的 Gemini 2.5 Pro 文件存在明显的披露不足问题。他们还注意到,该报告完全没有提及谷歌去年宣布的“前沿安全框架”(Frontier Safety Framework,简称 FSF)。该框架旨在识别未来可能造成“严重危害”的人工智能技术。
“这份报告内容非常简略,信息量极少,而且是在该模型公开数周后才发布的,”人工智能政策与战略研究所联合创始人彼得·怀尔德福德表示,“因此,我们无法确认谷歌是否兑现了其承诺,也就无法判断其模型的安全性和可靠性。”
安全人工智能项目联合创始人托马斯·伍德赛德表示,他很高兴终于有论文发表,但他对谷歌持续发布后续报告的计划表示怀疑。他指出,谷歌上一次公布危险能力测试结果还是在2024年6月,而那篇论文所涵盖的模型是同年2月发布的。.
当观察人士没有看到谷歌上周发布的更轻薄、速度更快的Gemini 2.5 Flash的安全文件时,信心进一步下降。一位公司发言人表示,Flash的安全文件“即将发布”。
伍德赛德说:“我希望这真的是承诺,他们会开始更频繁地发布更新信息。这些更新信息应该包括尚未公开的模型结果,因为这些模型也可能存在严重风险。”
谷歌如今在透明度方面有所欠缺。
Meta 为其新的 Llama 4 模型编写的安全说明只有几页,而 OpenAI 则完全没有为其 GPT-4.1 系列发布任何报告。
细节缺失正值局势紧张之际。两年前,谷歌曾向美国政府承诺,将公布其所有“重要”人工智能模型的安全文件。该公司也向其他国家的官员做出了类似承诺,称将对其人工智能产品提供“公开透明”的信息。
民主与技术中心人工智能治理高级顾问凯文·班克斯顿称,领先实验室发布的版本在安全性方面是一场“竞相降低标准”的闹剧。.
“结合 OpenAI 等竞争对手实验室将发布前的安全测试时间从数月缩短到数天的报道,谷歌顶级模型的这份简陋文档讲述了一个令人担忧的故事:随着各公司争相将模型推向市场,人工智能的安全性和透明度正在竞相降低标准。”他补充道。.
谷歌表示,其大部分安全工作都在内部进行。该公司称,每款车型在公开发布前都会经过严格测试,包括“对抗性红队演练”。.

