專家說,Google的最新AI模型報告缺乏關鍵安全細節。
在啟動最新和最先進的AI模型Gemini 2.5 Pro的星期四,Google發布了一份技術報告,詳細介紹了其內部安全評估的結果。但是,專家們批評該報告缺乏細節,使得充分了解與模型相關的潛在風險具有挑戰性。
技術報告在AI世界中至關重要,即使有時不討人喜歡的話,公司通常不會公開共享。 AI社區通常將這些報告視為促進獨立研究並增強安全評估的真正努力。
Google的安全報告方法與其一些競爭對手不同。一旦模型超越“實驗”階段,該公司僅發布技術報告。此外,Google省略了這些報告的某些“危險能力”評估結果,從而將其節省為單獨的審核。
儘管如此,幾位專家對TechCrunch的Gemini 2.5 Pro報告表示失望,指出了其對Google提議的Frontier Safetier Safety Framework(FSF)的覆蓋範圍很少。 Google去年推出了FSF,旨在確定未來可能導致“嚴重傷害”的AI功能。
AI政策與戰略研究所聯合創始人Peter Wildeford告訴TechCrunch:“該報告非常稀疏,包含最少的信息,並在模型已公開後幾週發布。” “不可能驗證Google是否履行其公開承諾,因此無法評估其模型的安全性。”
安全AI項目的聯合創始人托馬斯·伍德賽德(Thomas Woodside)承認發行了Gemini 2.5 Pro的報告,但質疑Google致力於提供及時的補充安全評估。他指出,Google上次發布了危險能力測試,該測試於2024年6月,該模型於當年2月宣布。
除此之外,Google尚未發布有關Gemini 2.5 Flash的報告,Gemini 2.5 Flash是上周宣布的較小,更高效的模型。一位發言人告知TechCrunch,Flash的報告即將發布。
伍德賽德告訴TechCrunch:“我希望這是Google的承諾,可以開始發布更頻繁的更新。” “這些更新應包括尚未公開部署的模型的評估結果,因為這些模型也可能帶來嚴重的風險。”
雖然Google是第一個為模型提出標準化報告的AI實驗室之一,但由於缺乏透明度而面臨批評並不是一個人。 Meta對其新的Llama 4 Open模型發布了類似的簡短安全評估,Openai選擇不發布其GPT-4.1系列的任何報告。
Google對監管機構在AI安全測試中保持高標準的保證和報告給這種情況增加了壓力。兩年前,Google承諾美國政府將發布所有“範圍內”所有“重要“公共AI”模型”的安全報告,然後對其他國家 /地區的類似承諾,承諾圍繞AI產品的“公共透明度”。
民主與技術中心AI治理的高級顧問凱文·班克斯頓(Kevin Bankston)將零星和模糊的報告的趨勢描述為AI安全性的“最底層”。
他告訴TechCrunch:“再加上諸如OpenAI之類的競爭實驗室將其安全性測試時間從幾個月到幾天減少了,這本針對Google頂級AI模型的微不足道的文檔講述了一個令人不安的故事,即當公司將其模型趕到市場上時,AI安全性和透明度的競賽都令人不安。”
Google表示,儘管在其技術報告中沒有詳細介紹,但在發布之前,它仍針對模型進行安全測試和“對抗性紅色團隊”。
在太平洋的下午12:58更新了4/22:圍繞技術報告引用Google FSF的修改語言。
相關文章
Imagen 4:谷歌最新AI圖像生成器
Google近日發表最新圖像生成AI模型「Imagen 4」,宣稱將為用戶帶來比前代Imagen 3更出色的視覺體驗。本週稍早在Google I/O 2025大會亮相的這款新模型,被譽為在畫質與多樣性方面取得重大突破。Google表示,Imagen 4特別擅長處理織物質感、水珠反光與動物毛髮等精細紋理,同時能輕鬆駕馭寫實與抽象風格。其輸出解析度最高可達2K,
谷歌Gemini代碼助手強化AI編程代理功能
Google旗下AI程式開發助手Gemini Code Assist近期推出全新「代理模式」功能,目前開放預覽體驗。在最新Cloud Next大會上,Google展示這些AI代理如何突破性處理複雜編程任務——從Google文件規格書直接生成完整應用程式,或輕鬆實現跨語言程式碼轉換。更令人驚豔的是,開發者現可在Android Studio等整合開發環境中直接啟
谷歌的人工智慧未來基金可能需要謹慎行事
Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
評論 (5)
0/200
AlbertWalker
2025-04-29 08:00:00
Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔
0
CharlesThomas
2025-04-29 08:00:00
ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅
0
BillyThomas
2025-04-28 08:00:00
El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔
0
JimmyGarcia
2025-04-29 08:00:00
O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔
0
WalterKing
2025-04-29 08:00:00
Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔
0
在啟動最新和最先進的AI模型Gemini 2.5 Pro的星期四,Google發布了一份技術報告,詳細介紹了其內部安全評估的結果。但是,專家們批評該報告缺乏細節,使得充分了解與模型相關的潛在風險具有挑戰性。
技術報告在AI世界中至關重要,即使有時不討人喜歡的話,公司通常不會公開共享。 AI社區通常將這些報告視為促進獨立研究並增強安全評估的真正努力。
Google的安全報告方法與其一些競爭對手不同。一旦模型超越“實驗”階段,該公司僅發布技術報告。此外,Google省略了這些報告的某些“危險能力”評估結果,從而將其節省為單獨的審核。
儘管如此,幾位專家對TechCrunch的Gemini 2.5 Pro報告表示失望,指出了其對Google提議的Frontier Safetier Safety Framework(FSF)的覆蓋範圍很少。 Google去年推出了FSF,旨在確定未來可能導致“嚴重傷害”的AI功能。
AI政策與戰略研究所聯合創始人Peter Wildeford告訴TechCrunch:“該報告非常稀疏,包含最少的信息,並在模型已公開後幾週發布。” “不可能驗證Google是否履行其公開承諾,因此無法評估其模型的安全性。”
安全AI項目的聯合創始人托馬斯·伍德賽德(Thomas Woodside)承認發行了Gemini 2.5 Pro的報告,但質疑Google致力於提供及時的補充安全評估。他指出,Google上次發布了危險能力測試,該測試於2024年6月,該模型於當年2月宣布。
除此之外,Google尚未發布有關Gemini 2.5 Flash的報告,Gemini 2.5 Flash是上周宣布的較小,更高效的模型。一位發言人告知TechCrunch,Flash的報告即將發布。
伍德賽德告訴TechCrunch:“我希望這是Google的承諾,可以開始發布更頻繁的更新。” “這些更新應包括尚未公開部署的模型的評估結果,因為這些模型也可能帶來嚴重的風險。”
雖然Google是第一個為模型提出標準化報告的AI實驗室之一,但由於缺乏透明度而面臨批評並不是一個人。 Meta對其新的Llama 4 Open模型發布了類似的簡短安全評估,Openai選擇不發布其GPT-4.1系列的任何報告。
Google對監管機構在AI安全測試中保持高標準的保證和報告給這種情況增加了壓力。兩年前,Google承諾美國政府將發布所有“範圍內”所有“重要“公共AI”模型”的安全報告,然後對其他國家 /地區的類似承諾,承諾圍繞AI產品的“公共透明度”。
民主與技術中心AI治理的高級顧問凱文·班克斯頓(Kevin Bankston)將零星和模糊的報告的趨勢描述為AI安全性的“最底層”。
他告訴TechCrunch:“再加上諸如OpenAI之類的競爭實驗室將其安全性測試時間從幾個月到幾天減少了,這本針對Google頂級AI模型的微不足道的文檔講述了一個令人不安的故事,即當公司將其模型趕到市場上時,AI安全性和透明度的競賽都令人不安。”
Google表示,儘管在其技術報告中沒有詳細介紹,但在發布之前,它仍針對模型進行安全測試和“對抗性紅色團隊”。
在太平洋的下午12:58更新了4/22:圍繞技術報告引用Google FSF的修改語言。



Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔




ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅




El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔




O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔




Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔












