Le dernier rapport du modèle d'IA de Google n'a pas de détails de sécurité clés, disent les experts
Jeudi, des semaines après le lancement de son modèle d'IA le plus récent et le plus avancé, Gemini 2.5 Pro, Google a publié un rapport technique détaillant les résultats de ses évaluations internes de la sécurité. Cependant, les experts ont critiqué le rapport pour son manque de détails, ce qui rend difficile de bien comprendre les risques potentiels associés au modèle.
Les rapports techniques sont cruciaux dans le monde de l'IA, offrant des informations - même s'ils sont parfois peu flatteurs - que les entreprises pourraient généralement ne pas partager publiquement. Ces rapports sont généralement considérés par la communauté de l'IA comme de véritables efforts pour favoriser la recherche indépendante et améliorer les évaluations de la sécurité.
L'approche de Google dans les rapports de sécurité diffère de certains de ses concurrents. La société ne publie des rapports techniques qu'une fois qu'un modèle dépasse la phase "expérimentale". De plus, Google omet certains résultats d'évaluation de la "capacité dangereux" de ces rapports, les économisant pour un audit distinct.
Malgré cela, plusieurs experts ont exprimé leur déception à l'égard du rapport Gemini 2.5 Pro à TechCrunch, soulignant sa petite couverture du Frontier Safety Framework (FSF) de Google. Google a dévoilé la FSF l'année dernière, visant à identifier les futures capacités d'IA qui pourraient entraîner des "préjudices graves".
"Ce rapport est très clairsemé, contient un minimum d'informations et a été publié des semaines après que le modèle a déjà été rendu public", a déclaré à TechCrunch Peter Wildelford, co-fondateur de l'Institute for IA Policy and Strategy, à TechCrunch. "Il est impossible de vérifier si Google est à la hauteur de ses engagements publics et donc impossible d'évaluer la sécurité et la sécurité de leurs modèles."
Thomas Woodside, co-fondateur du projet Secure AI, a reconnu la publication du rapport pour Gemini 2.5 Pro mais a remis en question le dévouement de Google à fournir des évaluations de sécurité supplémentaires en temps opportun. Il a noté que Google avait publié pour la dernière fois les résultats des tests de capacité dangereux en juin 2024, pour un modèle annoncé en février de la même année.
Ajoutant aux préoccupations, Google n'a pas encore publié de rapport pour Gemini 2.5 Flash, un modèle plus petit et plus efficace annoncé la semaine dernière. Un porte-parole a informé TechCrunch qu'un rapport pour Flash "arrive bientôt".
"J'espère que c'est une promesse de Google pour commencer à publier des mises à jour plus fréquentes", a déclaré Woodside à TechCrunch. "Ces mises à jour devraient inclure les résultats des évaluations des modèles qui n'ont pas encore été déployés publiquement, car ces modèles pourraient également présenter des risques graves."
Bien que Google ait été parmi les premiers laboratoires d'IA à proposer des rapports standardisés pour les modèles, il n'est pas le seul à faire face à un manque de transparence. Meta a publié une évaluation de sécurité tout aussi brève pour ses nouveaux modèles Open Llama 4, et OpenAI a choisi de ne publier aucun rapport pour sa série GPT-4.1.
Les assurances de Google aux régulateurs du maintien de normes élevées dans les tests de sécurité de l'IA et les rapports ajoutent de la pression à la situation. Il y a deux ans, Google a promis au gouvernement américain de publier des rapports de sécurité pour tous les "modèles d'IA publics" importants "dans la portée", suivis par des engagements similaires envers d'autres pays, promettant de "transparence publique" autour des produits d'IA.
Kevin Bankston, conseillère principale de la gouvernance de l'IA au Center for Democracy and Technology, a décrit la tendance des rapports sporadiques et vagues comme une "course vers le bas" sur la sécurité de l'IA.
"Combiné avec des rapports selon lesquels des laboratoires concurrents comme OpenAI ont réduit leur temps de test de sécurité avant la sortie de mois à jours, cette maigre documentation pour le meilleur modèle d'IA de Google raconte une histoire troublante d'une course vers le bas sur la sécurité et la transparence de l'IA alors que les entreprises se précipitent sur le marché", a-t-il déclaré à TechCrunch.
Google a déclaré que, bien qu'il ne soit pas détaillé dans ses rapports techniques, il effectue des tests de sécurité et "une équipe rouge adversaire" pour les modèles avant leur sortie.
Mise à jour du 4/22 à 12 h 58 Pacifique: Langue modifiée autour de la référence du rapport technique au FSF de Google.
Article connexe
Imagen 4:谷歌最新AI圖像生成器
Google近日發表最新圖像生成AI模型「Imagen 4」,宣稱將為用戶帶來比前代Imagen 3更出色的視覺體驗。本週稍早在Google I/O 2025大會亮相的這款新模型,被譽為在畫質與多樣性方面取得重大突破。Google表示,Imagen 4特別擅長處理織物質感、水珠反光與動物毛髮等精細紋理,同時能輕鬆駕馭寫實與抽象風格。其輸出解析度最高可達2K,
谷歌Gemini代碼助手強化AI編程代理功能
Google旗下AI程式開發助手Gemini Code Assist近期推出全新「代理模式」功能,目前開放預覽體驗。在最新Cloud Next大會上,Google展示這些AI代理如何突破性處理複雜編程任務——從Google文件規格書直接生成完整應用程式,或輕鬆實現跨語言程式碼轉換。更令人驚豔的是,開發者現可在Android Studio等整合開發環境中直接啟
谷歌的人工智慧未來基金可能需要謹慎行事
Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
commentaires (5)
0/200
AlbertWalker
29 avril 2025 00:00:00 UTC
Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔
0
CharlesThomas
29 avril 2025 00:00:00 UTC
ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅
0
BillyThomas
28 avril 2025 00:00:00 UTC
El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔
0
JimmyGarcia
29 avril 2025 00:00:00 UTC
O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔
0
WalterKing
29 avril 2025 00:00:00 UTC
Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔
0
Jeudi, des semaines après le lancement de son modèle d'IA le plus récent et le plus avancé, Gemini 2.5 Pro, Google a publié un rapport technique détaillant les résultats de ses évaluations internes de la sécurité. Cependant, les experts ont critiqué le rapport pour son manque de détails, ce qui rend difficile de bien comprendre les risques potentiels associés au modèle.
Les rapports techniques sont cruciaux dans le monde de l'IA, offrant des informations - même s'ils sont parfois peu flatteurs - que les entreprises pourraient généralement ne pas partager publiquement. Ces rapports sont généralement considérés par la communauté de l'IA comme de véritables efforts pour favoriser la recherche indépendante et améliorer les évaluations de la sécurité.
L'approche de Google dans les rapports de sécurité diffère de certains de ses concurrents. La société ne publie des rapports techniques qu'une fois qu'un modèle dépasse la phase "expérimentale". De plus, Google omet certains résultats d'évaluation de la "capacité dangereux" de ces rapports, les économisant pour un audit distinct.
Malgré cela, plusieurs experts ont exprimé leur déception à l'égard du rapport Gemini 2.5 Pro à TechCrunch, soulignant sa petite couverture du Frontier Safety Framework (FSF) de Google. Google a dévoilé la FSF l'année dernière, visant à identifier les futures capacités d'IA qui pourraient entraîner des "préjudices graves".
"Ce rapport est très clairsemé, contient un minimum d'informations et a été publié des semaines après que le modèle a déjà été rendu public", a déclaré à TechCrunch Peter Wildelford, co-fondateur de l'Institute for IA Policy and Strategy, à TechCrunch. "Il est impossible de vérifier si Google est à la hauteur de ses engagements publics et donc impossible d'évaluer la sécurité et la sécurité de leurs modèles."
Thomas Woodside, co-fondateur du projet Secure AI, a reconnu la publication du rapport pour Gemini 2.5 Pro mais a remis en question le dévouement de Google à fournir des évaluations de sécurité supplémentaires en temps opportun. Il a noté que Google avait publié pour la dernière fois les résultats des tests de capacité dangereux en juin 2024, pour un modèle annoncé en février de la même année.
Ajoutant aux préoccupations, Google n'a pas encore publié de rapport pour Gemini 2.5 Flash, un modèle plus petit et plus efficace annoncé la semaine dernière. Un porte-parole a informé TechCrunch qu'un rapport pour Flash "arrive bientôt".
"J'espère que c'est une promesse de Google pour commencer à publier des mises à jour plus fréquentes", a déclaré Woodside à TechCrunch. "Ces mises à jour devraient inclure les résultats des évaluations des modèles qui n'ont pas encore été déployés publiquement, car ces modèles pourraient également présenter des risques graves."
Bien que Google ait été parmi les premiers laboratoires d'IA à proposer des rapports standardisés pour les modèles, il n'est pas le seul à faire face à un manque de transparence. Meta a publié une évaluation de sécurité tout aussi brève pour ses nouveaux modèles Open Llama 4, et OpenAI a choisi de ne publier aucun rapport pour sa série GPT-4.1.
Les assurances de Google aux régulateurs du maintien de normes élevées dans les tests de sécurité de l'IA et les rapports ajoutent de la pression à la situation. Il y a deux ans, Google a promis au gouvernement américain de publier des rapports de sécurité pour tous les "modèles d'IA publics" importants "dans la portée", suivis par des engagements similaires envers d'autres pays, promettant de "transparence publique" autour des produits d'IA.
Kevin Bankston, conseillère principale de la gouvernance de l'IA au Center for Democracy and Technology, a décrit la tendance des rapports sporadiques et vagues comme une "course vers le bas" sur la sécurité de l'IA.
"Combiné avec des rapports selon lesquels des laboratoires concurrents comme OpenAI ont réduit leur temps de test de sécurité avant la sortie de mois à jours, cette maigre documentation pour le meilleur modèle d'IA de Google raconte une histoire troublante d'une course vers le bas sur la sécurité et la transparence de l'IA alors que les entreprises se précipitent sur le marché", a-t-il déclaré à TechCrunch.
Google a déclaré que, bien qu'il ne soit pas détaillé dans ses rapports techniques, il effectue des tests de sécurité et "une équipe rouge adversaire" pour les modèles avant leur sortie.
Mise à jour du 4/22 à 12 h 58 Pacifique: Langue modifiée autour de la référence du rapport technique au FSF de Google.



Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔




ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅




El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔




O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔




Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔












