Googleの最新のAIモデルレポートには重要な安全性の詳細がありません、と専門家は言います
2025年4月27日
ChristopherThomas
0
Googleは、最新かつ最も高度なAIモデルであるGemini 2.5 Proを開始してから数週間後の木曜日に、内部安全評価の結果を詳述したテクニカルレポートをリリースしました。しかし、専門家は、その詳細の欠如についてレポートを批判しており、モデルに関連する潜在的なリスクを完全に理解することは困難です。
AIの世界では、技術レポートが非常に重要であり、企業が通常公開しない可能性がある場合でも、洞察を提供します。これらのレポートは一般に、AIコミュニティによって、独立した研究を促進し、安全評価を強化するための真の努力と見なされています。
Googleの安全報告に対するアプローチは、競合他社の一部とは異なります。同社は、モデルが「実験的」フェーズを超えて移動すると、技術レポートを公開します。さらに、Googleはこれらのレポートから特定の「危険な能力」評価の結果を省略し、個別の監査のためにそれらを保存します。
それにもかかわらず、何人かの専門家は、Gemini 2.5 ProレポートにTechCrunchへの失望を表明し、Googleが提案しているFrontier Safety Framework(FSF)の乏しい報道を指摘しました。 Googleは昨年、FSFを発表し、「深刻な害」につながる可能性のある将来のAI機能を特定することを目指しています。
「このレポートは非常にまばらで、最小限の情報が含まれており、モデルがすでに公開されてから数週間後にリリースされました」と、AIの政策と戦略研究所の共同設立者であるPeter WildefordはTechCrunchに語りました。 「Googleが公的なコミットメントに貢献しているかどうかを確認することは不可能であり、モデルの安全性とセキュリティを評価することは不可能です。」
Secure AI Projectの共同設立者であるThomas Woodsideは、Gemini 2.5 Proのレポートのリリースを認めましたが、タイムリーな補足安全評価を提供することに対するGoogleの献身に疑問を呈しました。彼は、Googleがその年の2月に発表されたモデルのために、2024年6月に危険な能力テスト結果を最後に公開したことに注目しました。
懸念事項に加えて、Googleは先週発表されたより小さく、より効率的なモデルであるGemini 2.5 Flashのレポートをまだリリースしていません。広報担当者は、TechCrunchにFlashのレポートが「間もなく登場する」ことを伝えました。
「これがGoogleからのより頻繁な更新の公開を開始することを約束することを願っています」とWoodsideはTechCrunchに語った。 「これらの更新は、それらのモデルも深刻なリスクをもたらす可能性があるため、まだ公開されていないモデルの評価の結果を含める必要があります。」
Googleはモデルの標準化されたレポートを提案した最初のAIラボの1つでしたが、透明性の欠如に対する批判に直面することだけではありません。 Metaは、新しいLlama 4 Open Modelsの同様に簡単な安全評価をリリースし、OpenaiはGPT-4.1シリーズのレポートを公開しないことを選択しました。
AIの安全性テストと報告において高い基準を維持することに関する規制当局に対するGoogleの保証は、状況に圧力を加えます。 2年前、Googleは米国政府に、「すべての「重要な」公共AIモデルの範囲内」の安全レポートを「範囲内」に公開することを約束し、その後、他の国への同様のコミットメントが行われ、AI製品を中心に「公共の透明性」を誓約しました。
民主主義技術センターのAIガバナンスの上級顧問であるケビン・バンクストンは、散発的であいまいな報告の傾向を、AIの安全性に関する「底辺への競争」と説明しました。
「Openaiのような競合するラボが数ヶ月から数日までのリリース前に安全テスト時間を短縮したという報告と組み合わされて、GoogleのトップAIモデルのこのわずかなドキュメントは、企業がモデルに向けてモデルを急ぐためにAIの安全性と透明性についてのレースの厄介なストーリーを語っています」と彼はTechCrunchに語りました。
Googleは、技術レポートでは詳述されていませんが、リリース前にモデルの安全性テストと「敵対的な赤チーム」を実施していると述べています。
4/22を午後12時58分に更新しました。
関連記事
Google’s latest AI model report lacks key safety details, experts say
On Thursday, weeks after launching its latest and most advanced AI model, Gemini 2.5 Pro, Google released a technical report detailing the results of its internal safety assessments. However, experts have criticized the report for its lack of detail, making it challenging to fully understand the pot
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries
Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models
In a recent episode of the podcast Possible, co-hosted by LinkedIn co-founder Reid Hoffman, Google DeepMind CEO Demis Hassabis shared some exciting news about Google's plans. He revealed that Google is looking to merge its Gemini AI models with the Veo video-generating models. This fusion aims to en
コメント (0)
0/200






Googleは、最新かつ最も高度なAIモデルであるGemini 2.5 Proを開始してから数週間後の木曜日に、内部安全評価の結果を詳述したテクニカルレポートをリリースしました。しかし、専門家は、その詳細の欠如についてレポートを批判しており、モデルに関連する潜在的なリスクを完全に理解することは困難です。
AIの世界では、技術レポートが非常に重要であり、企業が通常公開しない可能性がある場合でも、洞察を提供します。これらのレポートは一般に、AIコミュニティによって、独立した研究を促進し、安全評価を強化するための真の努力と見なされています。
Googleの安全報告に対するアプローチは、競合他社の一部とは異なります。同社は、モデルが「実験的」フェーズを超えて移動すると、技術レポートを公開します。さらに、Googleはこれらのレポートから特定の「危険な能力」評価の結果を省略し、個別の監査のためにそれらを保存します。
それにもかかわらず、何人かの専門家は、Gemini 2.5 ProレポートにTechCrunchへの失望を表明し、Googleが提案しているFrontier Safety Framework(FSF)の乏しい報道を指摘しました。 Googleは昨年、FSFを発表し、「深刻な害」につながる可能性のある将来のAI機能を特定することを目指しています。
「このレポートは非常にまばらで、最小限の情報が含まれており、モデルがすでに公開されてから数週間後にリリースされました」と、AIの政策と戦略研究所の共同設立者であるPeter WildefordはTechCrunchに語りました。 「Googleが公的なコミットメントに貢献しているかどうかを確認することは不可能であり、モデルの安全性とセキュリティを評価することは不可能です。」
Secure AI Projectの共同設立者であるThomas Woodsideは、Gemini 2.5 Proのレポートのリリースを認めましたが、タイムリーな補足安全評価を提供することに対するGoogleの献身に疑問を呈しました。彼は、Googleがその年の2月に発表されたモデルのために、2024年6月に危険な能力テスト結果を最後に公開したことに注目しました。
懸念事項に加えて、Googleは先週発表されたより小さく、より効率的なモデルであるGemini 2.5 Flashのレポートをまだリリースしていません。広報担当者は、TechCrunchにFlashのレポートが「間もなく登場する」ことを伝えました。
「これがGoogleからのより頻繁な更新の公開を開始することを約束することを願っています」とWoodsideはTechCrunchに語った。 「これらの更新は、それらのモデルも深刻なリスクをもたらす可能性があるため、まだ公開されていないモデルの評価の結果を含める必要があります。」
Googleはモデルの標準化されたレポートを提案した最初のAIラボの1つでしたが、透明性の欠如に対する批判に直面することだけではありません。 Metaは、新しいLlama 4 Open Modelsの同様に簡単な安全評価をリリースし、OpenaiはGPT-4.1シリーズのレポートを公開しないことを選択しました。
AIの安全性テストと報告において高い基準を維持することに関する規制当局に対するGoogleの保証は、状況に圧力を加えます。 2年前、Googleは米国政府に、「すべての「重要な」公共AIモデルの範囲内」の安全レポートを「範囲内」に公開することを約束し、その後、他の国への同様のコミットメントが行われ、AI製品を中心に「公共の透明性」を誓約しました。
民主主義技術センターのAIガバナンスの上級顧問であるケビン・バンクストンは、散発的であいまいな報告の傾向を、AIの安全性に関する「底辺への競争」と説明しました。
「Openaiのような競合するラボが数ヶ月から数日までのリリース前に安全テスト時間を短縮したという報告と組み合わされて、GoogleのトップAIモデルのこのわずかなドキュメントは、企業がモデルに向けてモデルを急ぐためにAIの安全性と透明性についてのレースの厄介なストーリーを語っています」と彼はTechCrunchに語りました。
Googleは、技術レポートでは詳述されていませんが、リリース前にモデルの安全性テストと「敵対的な赤チーム」を実施していると述べています。
4/22を午後12時58分に更新しました。











