专家说,Google的最新AI模型报告缺乏关键安全细节。
在周四,谷歌在推出其最新且最先进的AI模型Gemini 2.5 Pro数周后,发布了一份技术报告,详细介绍了其内部安全评估结果。然而,专家们批评该报告缺乏细节,难以完全理解与该模型相关的潜在风险。
技术报告在AI领域至关重要,它们提供了洞察——即便有时这些洞察并不讨喜——企业通常不会公开分享这些信息。这些报告通常被AI社区视为促进独立研究和加强安全评估的真诚努力。
谷歌的安全报告方式与其一些竞争对手不同。该公司仅在模型进入“实验”阶段后才发布技术报告。此外,谷歌在这些报告中省略了某些“危险能力”评估结果,将其留给单独的审计。
尽管如此,多位专家对TechCrunch表示对Gemini 2.5 Pro报告感到失望,指出其对谷歌提出的前沿安全框架(FSF)的覆盖极少。谷歌去年推出了FSF,旨在识别未来可能导致“严重危害”的AI能力。
“这份报告非常简略,包含的信息极少,且在模型公开数周后才发布,”AI政策与战略研究所联合创始人彼得·威尔德福德对TechCrunch表示。“无法验证谷歌是否兑现了其公开承诺,因此也无法评估其模型的安全性和保障性。”
安全AI项目联合创始人托马斯·伍德赛德承认发布了Gemini 2.5 Pro的报告,但质疑谷歌对及时提供补充安全评估的承诺。他指出,谷歌上次发布危险能力测试结果是在2024年6月,针对的是当年2月宣布的模型。
更令人担忧的是,谷歌尚未发布关于上周宣布的更小、更高效的模型Gemini 2.5 Flash的报告。一位发言人告知TechCrunch,Flash的报告“即将发布”。
“我希望这是谷歌开始发布更频繁更新的承诺,”伍德赛德对TechCrunch表示。“这些更新应包括尚未公开部署的模型的评估结果,因为这些模型也可能带来严重风险。”
虽然谷歌是最早提出模型标准化报告的AI实验室之一,但它并非唯一因缺乏透明度而受到批评的公司。Meta为其新款Llama 4开放模型发布了同样简短的安全评估,而OpenAI则选择不为其GPT-4.1系列发布任何报告。
谷歌对监管机构关于保持AI安全测试和报告高标准的保证增加了压力。两年前,谷歌向美国政府承诺为所有“重要”的公开AI模型“在范围内”发布安全报告,随后对其他国家也做出了类似承诺,承诺围绕AI产品实现“公开透明”。
民主与技术中心AI治理高级顾问凯文·班克斯顿将零星且模糊的报告趋势描述为AI安全的“逐底竞争”。
“结合报道称OpenAI等竞争实验室在发布前将安全测试时间从数月缩短到数天,谷歌顶级AI模型的这份简陋文档显示了一个令人不安的故事:企业在急于将模型推向市场时,在AI安全和透明度上展开了逐底竞争,”他对TechCrunch表示。
谷歌表示,尽管其技术报告中未详细说明,但它在模型发布前进行了安全测试和“对抗性红队测试”。
更新于4月22日太平洋时间中午12:58:修改了关于技术报告提及谷歌FSF的措辞。
相关文章
谷歌最新的双子座人工智能模型在测试中显示安全得分下降
谷歌的内部测试显示,与以前的版本相比,其最新人工智能模型的安全协议性能下降令人担忧。根据最新公布的基准,在处理文本和图像提示时,Gemini 2.5 Flash 模型在关键安全指标上的准则违反率比以往高出 4-10%。这家科技巨头的自动评估结果凸显了令人担忧的趋势:当出现边界测试提示时,Gemini 2.5 Flash 比其前身 Gemini 2.0 更频繁地跨越既定的内容安全线。谷歌的技术团队将
谷歌的 Stitch AI 简化了应用程序设计流程
谷歌在 I/O 2025 大会上发布人工智能设计工具 Stitch在 2025 年谷歌 I/O 大会的主题演讲中,谷歌推出了革命性的人工智能界面设计工具 Stitch。这一创新解决方案可将自然语言提示或参考图片转化为功能齐全的用户界面设计,并提供可直接投入生产的 HTML 和 CSS 代码。Stitch的双模型架构可在Gemini 2.5 Pro和Flash模型之间灵活切换,以满足不同的设计需求图
谷歌为 Gmail、文档和视频推出人工智能工具
谷歌在 2025 年 I/O 大会上发布人工智能驱动的工作空间更新在年度开发者大会上,谷歌推出了工作空间套件的变革性人工智能增强功能,从根本上改变了用户与 Gmail、Docs 和视频的交互方式。更新的重点是智能自动化和简化生产力应用中的工作流程。图片来源:Google谷歌Gmail 的智能生产力功能电子邮件服务将获得两项突破性的功能:智能回复(Context-Aware Smart Replie
评论 (6)
0/200
MarkSanchez
2025-08-01 21:47:34
Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.
0
WalterKing
2025-04-29 23:19:22
Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔
0
CharlesThomas
2025-04-29 09:17:55
ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅
0
AlbertWalker
2025-04-29 07:15:07
Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔
0
JimmyGarcia
2025-04-29 04:01:42
O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔
0
BillyThomas
2025-04-28 07:41:33
El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔
0
在周四,谷歌在推出其最新且最先进的AI模型Gemini 2.5 Pro数周后,发布了一份技术报告,详细介绍了其内部安全评估结果。然而,专家们批评该报告缺乏细节,难以完全理解与该模型相关的潜在风险。
技术报告在AI领域至关重要,它们提供了洞察——即便有时这些洞察并不讨喜——企业通常不会公开分享这些信息。这些报告通常被AI社区视为促进独立研究和加强安全评估的真诚努力。
谷歌的安全报告方式与其一些竞争对手不同。该公司仅在模型进入“实验”阶段后才发布技术报告。此外,谷歌在这些报告中省略了某些“危险能力”评估结果,将其留给单独的审计。
尽管如此,多位专家对TechCrunch表示对Gemini 2.5 Pro报告感到失望,指出其对谷歌提出的前沿安全框架(FSF)的覆盖极少。谷歌去年推出了FSF,旨在识别未来可能导致“严重危害”的AI能力。
“这份报告非常简略,包含的信息极少,且在模型公开数周后才发布,”AI政策与战略研究所联合创始人彼得·威尔德福德对TechCrunch表示。“无法验证谷歌是否兑现了其公开承诺,因此也无法评估其模型的安全性和保障性。”
安全AI项目联合创始人托马斯·伍德赛德承认发布了Gemini 2.5 Pro的报告,但质疑谷歌对及时提供补充安全评估的承诺。他指出,谷歌上次发布危险能力测试结果是在2024年6月,针对的是当年2月宣布的模型。
更令人担忧的是,谷歌尚未发布关于上周宣布的更小、更高效的模型Gemini 2.5 Flash的报告。一位发言人告知TechCrunch,Flash的报告“即将发布”。
“我希望这是谷歌开始发布更频繁更新的承诺,”伍德赛德对TechCrunch表示。“这些更新应包括尚未公开部署的模型的评估结果,因为这些模型也可能带来严重风险。”
虽然谷歌是最早提出模型标准化报告的AI实验室之一,但它并非唯一因缺乏透明度而受到批评的公司。Meta为其新款Llama 4开放模型发布了同样简短的安全评估,而OpenAI则选择不为其GPT-4.1系列发布任何报告。
谷歌对监管机构关于保持AI安全测试和报告高标准的保证增加了压力。两年前,谷歌向美国政府承诺为所有“重要”的公开AI模型“在范围内”发布安全报告,随后对其他国家也做出了类似承诺,承诺围绕AI产品实现“公开透明”。
民主与技术中心AI治理高级顾问凯文·班克斯顿将零星且模糊的报告趋势描述为AI安全的“逐底竞争”。
“结合报道称OpenAI等竞争实验室在发布前将安全测试时间从数月缩短到数天,谷歌顶级AI模型的这份简陋文档显示了一个令人不安的故事:企业在急于将模型推向市场时,在AI安全和透明度上展开了逐底竞争,”他对TechCrunch表示。
谷歌表示,尽管其技术报告中未详细说明,但它在模型发布前进行了安全测试和“对抗性红队测试”。
更新于4月22日太平洋时间中午12:58:修改了关于技术报告提及谷歌FSF的措辞。



Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.




Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔




ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅




Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔




O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔




El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔












