

Le dernier rapport du modèle d'IA de Google n'a pas de détails de sécurité clés, disent les experts
27 avril 2025
ChristopherThomas
0
Jeudi, des semaines après le lancement de son modèle d'IA le plus récent et le plus avancé, Gemini 2.5 Pro, Google a publié un rapport technique détaillant les résultats de ses évaluations internes de la sécurité. Cependant, les experts ont critiqué le rapport pour son manque de détails, ce qui rend difficile de bien comprendre les risques potentiels associés au modèle.
Les rapports techniques sont cruciaux dans le monde de l'IA, offrant des informations - même s'ils sont parfois peu flatteurs - que les entreprises pourraient généralement ne pas partager publiquement. Ces rapports sont généralement considérés par la communauté de l'IA comme de véritables efforts pour favoriser la recherche indépendante et améliorer les évaluations de la sécurité.
L'approche de Google dans les rapports de sécurité diffère de certains de ses concurrents. La société ne publie des rapports techniques qu'une fois qu'un modèle dépasse la phase "expérimentale". De plus, Google omet certains résultats d'évaluation de la "capacité dangereux" de ces rapports, les économisant pour un audit distinct.
Malgré cela, plusieurs experts ont exprimé leur déception à l'égard du rapport Gemini 2.5 Pro à TechCrunch, soulignant sa petite couverture du Frontier Safety Framework (FSF) de Google. Google a dévoilé la FSF l'année dernière, visant à identifier les futures capacités d'IA qui pourraient entraîner des "préjudices graves".
"Ce rapport est très clairsemé, contient un minimum d'informations et a été publié des semaines après que le modèle a déjà été rendu public", a déclaré à TechCrunch Peter Wildelford, co-fondateur de l'Institute for IA Policy and Strategy, à TechCrunch. "Il est impossible de vérifier si Google est à la hauteur de ses engagements publics et donc impossible d'évaluer la sécurité et la sécurité de leurs modèles."
Thomas Woodside, co-fondateur du projet Secure AI, a reconnu la publication du rapport pour Gemini 2.5 Pro mais a remis en question le dévouement de Google à fournir des évaluations de sécurité supplémentaires en temps opportun. Il a noté que Google avait publié pour la dernière fois les résultats des tests de capacité dangereux en juin 2024, pour un modèle annoncé en février de la même année.
Ajoutant aux préoccupations, Google n'a pas encore publié de rapport pour Gemini 2.5 Flash, un modèle plus petit et plus efficace annoncé la semaine dernière. Un porte-parole a informé TechCrunch qu'un rapport pour Flash "arrive bientôt".
"J'espère que c'est une promesse de Google pour commencer à publier des mises à jour plus fréquentes", a déclaré Woodside à TechCrunch. "Ces mises à jour devraient inclure les résultats des évaluations des modèles qui n'ont pas encore été déployés publiquement, car ces modèles pourraient également présenter des risques graves."
Bien que Google ait été parmi les premiers laboratoires d'IA à proposer des rapports standardisés pour les modèles, il n'est pas le seul à faire face à un manque de transparence. Meta a publié une évaluation de sécurité tout aussi brève pour ses nouveaux modèles Open Llama 4, et OpenAI a choisi de ne publier aucun rapport pour sa série GPT-4.1.
Les assurances de Google aux régulateurs du maintien de normes élevées dans les tests de sécurité de l'IA et les rapports ajoutent de la pression à la situation. Il y a deux ans, Google a promis au gouvernement américain de publier des rapports de sécurité pour tous les "modèles d'IA publics" importants "dans la portée", suivis par des engagements similaires envers d'autres pays, promettant de "transparence publique" autour des produits d'IA.
Kevin Bankston, conseillère principale de la gouvernance de l'IA au Center for Democracy and Technology, a décrit la tendance des rapports sporadiques et vagues comme une "course vers le bas" sur la sécurité de l'IA.
"Combiné avec des rapports selon lesquels des laboratoires concurrents comme OpenAI ont réduit leur temps de test de sécurité avant la sortie de mois à jours, cette maigre documentation pour le meilleur modèle d'IA de Google raconte une histoire troublante d'une course vers le bas sur la sécurité et la transparence de l'IA alors que les entreprises se précipitent sur le marché", a-t-il déclaré à TechCrunch.
Google a déclaré que, bien qu'il ne soit pas détaillé dans ses rapports techniques, il effectue des tests de sécurité et "une équipe rouge adversaire" pour les modèles avant leur sortie.
Mise à jour du 4/22 à 12 h 58 Pacifique: Langue modifiée autour de la référence du rapport technique au FSF de Google.
Article connexe
Google Search는 복잡한 다중 부분 쿼리에 대한 'AI 모드'를 소개합니다
Google은 Perplexity AI와 경쟁하기 위해 "AI Mode"를 공개하고 ChatgptGoogle은 검색 엔진에서 실험적인 "AI 모드"기능을 시작하여 AI 경기장에서 게임을 강화하고 있습니다. Perplexity AI 및 OpenAi의 ChatGpt 검색을 좋아하는이 새로운 모드는 Wed에서 발표되었습니다.
Deepmind CEO Demis Hassabis는 Google의 Gemini 및 Veo AI 모델의 향후 통합을 발표했습니다.
Google Deepmind의 CEO 인 Demis Hassabis는 Linkedin의 공동 창립자 인 Reid Hoffman이 공동 주최 한 Podcast Polect의 최근 에피소드에서 Google의 계획에 대한 흥미로운 소식을 공유했습니다. 그는 Google이 Gemini AI 모델을 VEO 비디오 생성 모델과 합병하려고한다고 밝혔다. 이 퓨전은 EN을 목표로합니다
Google은 작업 영역 생산성 앱에 더 많은 AI 도구를 추가합니다.
Google은 최고 계층 AI 모델을 생산성 제품군에 통합하여 게임을 강화하여 Gemini 기능을 향상시켜 작업을 더 부드럽고 효율적으로 만듭니다. 오늘날이 기술 거대 기업은 오디오 개요와 새로운 관리 방법을 소개하여 작업 공간 제품에 대한 일련의 업데이트를 공개했습니다.
Commentaires (0)
0/200






Jeudi, des semaines après le lancement de son modèle d'IA le plus récent et le plus avancé, Gemini 2.5 Pro, Google a publié un rapport technique détaillant les résultats de ses évaluations internes de la sécurité. Cependant, les experts ont critiqué le rapport pour son manque de détails, ce qui rend difficile de bien comprendre les risques potentiels associés au modèle.
Les rapports techniques sont cruciaux dans le monde de l'IA, offrant des informations - même s'ils sont parfois peu flatteurs - que les entreprises pourraient généralement ne pas partager publiquement. Ces rapports sont généralement considérés par la communauté de l'IA comme de véritables efforts pour favoriser la recherche indépendante et améliorer les évaluations de la sécurité.
L'approche de Google dans les rapports de sécurité diffère de certains de ses concurrents. La société ne publie des rapports techniques qu'une fois qu'un modèle dépasse la phase "expérimentale". De plus, Google omet certains résultats d'évaluation de la "capacité dangereux" de ces rapports, les économisant pour un audit distinct.
Malgré cela, plusieurs experts ont exprimé leur déception à l'égard du rapport Gemini 2.5 Pro à TechCrunch, soulignant sa petite couverture du Frontier Safety Framework (FSF) de Google. Google a dévoilé la FSF l'année dernière, visant à identifier les futures capacités d'IA qui pourraient entraîner des "préjudices graves".
"Ce rapport est très clairsemé, contient un minimum d'informations et a été publié des semaines après que le modèle a déjà été rendu public", a déclaré à TechCrunch Peter Wildelford, co-fondateur de l'Institute for IA Policy and Strategy, à TechCrunch. "Il est impossible de vérifier si Google est à la hauteur de ses engagements publics et donc impossible d'évaluer la sécurité et la sécurité de leurs modèles."
Thomas Woodside, co-fondateur du projet Secure AI, a reconnu la publication du rapport pour Gemini 2.5 Pro mais a remis en question le dévouement de Google à fournir des évaluations de sécurité supplémentaires en temps opportun. Il a noté que Google avait publié pour la dernière fois les résultats des tests de capacité dangereux en juin 2024, pour un modèle annoncé en février de la même année.
Ajoutant aux préoccupations, Google n'a pas encore publié de rapport pour Gemini 2.5 Flash, un modèle plus petit et plus efficace annoncé la semaine dernière. Un porte-parole a informé TechCrunch qu'un rapport pour Flash "arrive bientôt".
"J'espère que c'est une promesse de Google pour commencer à publier des mises à jour plus fréquentes", a déclaré Woodside à TechCrunch. "Ces mises à jour devraient inclure les résultats des évaluations des modèles qui n'ont pas encore été déployés publiquement, car ces modèles pourraient également présenter des risques graves."
Bien que Google ait été parmi les premiers laboratoires d'IA à proposer des rapports standardisés pour les modèles, il n'est pas le seul à faire face à un manque de transparence. Meta a publié une évaluation de sécurité tout aussi brève pour ses nouveaux modèles Open Llama 4, et OpenAI a choisi de ne publier aucun rapport pour sa série GPT-4.1.
Les assurances de Google aux régulateurs du maintien de normes élevées dans les tests de sécurité de l'IA et les rapports ajoutent de la pression à la situation. Il y a deux ans, Google a promis au gouvernement américain de publier des rapports de sécurité pour tous les "modèles d'IA publics" importants "dans la portée", suivis par des engagements similaires envers d'autres pays, promettant de "transparence publique" autour des produits d'IA.
Kevin Bankston, conseillère principale de la gouvernance de l'IA au Center for Democracy and Technology, a décrit la tendance des rapports sporadiques et vagues comme une "course vers le bas" sur la sécurité de l'IA.
"Combiné avec des rapports selon lesquels des laboratoires concurrents comme OpenAI ont réduit leur temps de test de sécurité avant la sortie de mois à jours, cette maigre documentation pour le meilleur modèle d'IA de Google raconte une histoire troublante d'une course vers le bas sur la sécurité et la transparence de l'IA alors que les entreprises se précipitent sur le marché", a-t-il déclaré à TechCrunch.
Google a déclaré que, bien qu'il ne soit pas détaillé dans ses rapports techniques, il effectue des tests de sécurité et "une équipe rouge adversaire" pour les modèles avant leur sortie.
Mise à jour du 4/22 à 12 h 58 Pacifique: Langue modifiée autour de la référence du rapport technique au FSF de Google.












