专家说,Google的最新AI模型报告缺乏关键安全细节。
2025年04月27日
ChristopherThomas
0
在启动最新和最先进的AI模型Gemini 2.5 Pro的星期四,Google发布了一份技术报告,详细介绍了其内部安全评估的结果。但是,专家们批评该报告缺乏细节,使得充分了解与模型相关的潜在风险具有挑战性。
技术报告在AI世界中至关重要,即使有时不讨人喜欢的话,公司通常不会公开共享。 AI社区通常将这些报告视为促进独立研究并增强安全评估的真正努力。
Google的安全报告方法与其一些竞争对手不同。一旦模型超越“实验”阶段,该公司仅发布技术报告。此外,Google省略了这些报告的某些“危险能力”评估结果,从而将其节省为单独的审核。
尽管如此,几位专家对TechCrunch的Gemini 2.5 Pro报告表示失望,指出了其对Google提议的Frontier Safetier Safety Framework(FSF)的覆盖范围很少。 Google去年推出了FSF,旨在确定未来可能导致“严重伤害”的AI功能。
AI政策与战略研究所联合创始人Peter Wildeford告诉TechCrunch:“该报告非常稀疏,包含最少的信息,并在模型已公开后几周发布。” “不可能验证Google是否履行其公开承诺,因此无法评估其模型的安全性。”
安全AI项目的联合创始人托马斯·伍德赛德(Thomas Woodside)承认发行了Gemini 2.5 Pro的报告,但质疑Google致力于提供及时的补充安全评估。他指出,Google上次发布了危险能力测试,该测试于2024年6月,该模型于当年2月宣布。
除此之外,Google尚未发布有关Gemini 2.5 Flash的报告,Gemini 2.5 Flash是上周宣布的较小,更高效的模型。一位发言人告知TechCrunch,Flash的报告即将发布。
伍德赛德告诉TechCrunch:“我希望这是Google的承诺,可以开始发布更频繁的更新。” “这些更新应包括尚未公开部署的模型的评估结果,因为这些模型也可能带来严重的风险。”
虽然Google是第一个为模型提出标准化报告的AI实验室之一,但由于缺乏透明度而面临批评并不是一个人。 Meta对其新的Llama 4 Open模型发布了类似的简短安全评估,Openai选择不发布其GPT-4.1系列的任何报告。
Google对监管机构在AI安全测试中保持高标准的保证和报告给这种情况增加了压力。两年前,Google承诺美国政府将发布所有“范围内”所有“重要“公共AI”模型”的安全报告,然后对其他国家 /地区的类似承诺,承诺围绕AI产品的“公共透明度”。
民主与技术中心AI治理的高级顾问凯文·班克斯顿(Kevin Bankston)将零星和模糊的报告的趋势描述为AI安全性的“最底层”。
他告诉TechCrunch:“再加上诸如OpenAI之类的竞争实验室将其安全性测试时间从几个月到几天减少了,这本针对Google顶级AI模型的微不足道的文档讲述了一个令人不安的故事,即当公司将其模型赶到市场上时,AI安全性和透明度的竞赛都令人不安。”
Google表示,尽管在其技术报告中没有详细介绍,但在发布之前,它仍针对模型进行安全测试和“对抗性红色团队”。
在太平洋的下午12:58更新了4/22:围绕技术报告引用Google FSF的修改语言。
相关文章
Google’s latest AI model report lacks key safety details, experts say
On Thursday, weeks after launching its latest and most advanced AI model, Gemini 2.5 Pro, Google released a technical report detailing the results of its internal safety assessments. However, experts have criticized the report for its lack of detail, making it challenging to fully understand the pot
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries
Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models
In a recent episode of the podcast Possible, co-hosted by LinkedIn co-founder Reid Hoffman, Google DeepMind CEO Demis Hassabis shared some exciting news about Google's plans. He revealed that Google is looking to merge its Gemini AI models with the Veo video-generating models. This fusion aims to en
评论 (0)
0/200






在启动最新和最先进的AI模型Gemini 2.5 Pro的星期四,Google发布了一份技术报告,详细介绍了其内部安全评估的结果。但是,专家们批评该报告缺乏细节,使得充分了解与模型相关的潜在风险具有挑战性。
技术报告在AI世界中至关重要,即使有时不讨人喜欢的话,公司通常不会公开共享。 AI社区通常将这些报告视为促进独立研究并增强安全评估的真正努力。
Google的安全报告方法与其一些竞争对手不同。一旦模型超越“实验”阶段,该公司仅发布技术报告。此外,Google省略了这些报告的某些“危险能力”评估结果,从而将其节省为单独的审核。
尽管如此,几位专家对TechCrunch的Gemini 2.5 Pro报告表示失望,指出了其对Google提议的Frontier Safetier Safety Framework(FSF)的覆盖范围很少。 Google去年推出了FSF,旨在确定未来可能导致“严重伤害”的AI功能。
AI政策与战略研究所联合创始人Peter Wildeford告诉TechCrunch:“该报告非常稀疏,包含最少的信息,并在模型已公开后几周发布。” “不可能验证Google是否履行其公开承诺,因此无法评估其模型的安全性。”
安全AI项目的联合创始人托马斯·伍德赛德(Thomas Woodside)承认发行了Gemini 2.5 Pro的报告,但质疑Google致力于提供及时的补充安全评估。他指出,Google上次发布了危险能力测试,该测试于2024年6月,该模型于当年2月宣布。
除此之外,Google尚未发布有关Gemini 2.5 Flash的报告,Gemini 2.5 Flash是上周宣布的较小,更高效的模型。一位发言人告知TechCrunch,Flash的报告即将发布。
伍德赛德告诉TechCrunch:“我希望这是Google的承诺,可以开始发布更频繁的更新。” “这些更新应包括尚未公开部署的模型的评估结果,因为这些模型也可能带来严重的风险。”
虽然Google是第一个为模型提出标准化报告的AI实验室之一,但由于缺乏透明度而面临批评并不是一个人。 Meta对其新的Llama 4 Open模型发布了类似的简短安全评估,Openai选择不发布其GPT-4.1系列的任何报告。
Google对监管机构在AI安全测试中保持高标准的保证和报告给这种情况增加了压力。两年前,Google承诺美国政府将发布所有“范围内”所有“重要“公共AI”模型”的安全报告,然后对其他国家 /地区的类似承诺,承诺围绕AI产品的“公共透明度”。
民主与技术中心AI治理的高级顾问凯文·班克斯顿(Kevin Bankston)将零星和模糊的报告的趋势描述为AI安全性的“最底层”。
他告诉TechCrunch:“再加上诸如OpenAI之类的竞争实验室将其安全性测试时间从几个月到几天减少了,这本针对Google顶级AI模型的微不足道的文档讲述了一个令人不安的故事,即当公司将其模型赶到市场上时,AI安全性和透明度的竞赛都令人不安。”
Google表示,尽管在其技术报告中没有详细介绍,但在发布之前,它仍针对模型进行安全测试和“对抗性红色团队”。
在太平洋的下午12:58更新了4/22:围绕技术报告引用Google FSF的修改语言。











