option
Maison
Nouvelles
Le dernier rapport du modèle d'IA de Google n'a pas de détails de sécurité clés, disent les experts

Le dernier rapport du modèle d'IA de Google n'a pas de détails de sécurité clés, disent les experts

28 avril 2025
87

Jeudi, plusieurs semaines après le lancement de son dernier modèle d'IA le plus avancé, Gemini 2.5 Pro, Google a publié un rapport technique détaillant les résultats de ses évaluations internes de sécurité. Cependant, les experts ont critiqué le rapport pour son manque de détails, rendant difficile une compréhension complète des risques potentiels associés au modèle.

Les rapports techniques sont cruciaux dans le monde de l'IA, offrant des perspectives — même si elles sont parfois peu flatteuses — que les entreprises ne partagent généralement pas publiquement. Ces rapports sont généralement considérés par la communauté de l'IA comme des efforts sincères pour encourager la recherche indépendante et améliorer les évaluations de sécurité.

L'approche de Google en matière de rapports de sécurité diffère de celle de certains de ses concurrents. L'entreprise ne publie des rapports techniques qu'une fois qu'un modèle dépasse la phase « expérimentale ». De plus, Google omet certains résultats d'évaluation des « capacités dangereuses » de ces rapports, les réservant pour un audit séparé.

Malgré cela, plusieurs experts ont exprimé leur déception face au rapport de Gemini 2.5 Pro à TechCrunch, soulignant sa couverture limitée du Frontier Safety Framework (FSF) proposé par Google. Google a dévoilé le FSF l'année dernière, visant à identifier les futures capacités d'IA susceptibles de causer des « dommages graves ».

« Ce rapport est très succinct, contient un minimum d'informations et a été publié des semaines après que le modèle a été rendu public », a déclaré Peter Wildeford, cofondateur de l'Institute for AI Policy and Strategy, à TechCrunch. « Il est impossible de vérifier si Google respecte ses engagements publics, et donc impossible d'évaluer la sécurité et la sûreté de leurs modèles. »

Thomas Woodside, cofondateur du Secure AI Project, a reconnu la publication du rapport pour Gemini 2.5 Pro, mais a remis en question l'engagement de Google à fournir des évaluations de sécurité supplémentaires en temps opportun. Il a noté que Google avait publié pour la dernière fois des résultats de tests de capacités dangereuses en juin 2024, pour un modèle annoncé en février de la même année.

Ajoutant aux préoccupations, Google n'a pas encore publié de rapport pour Gemini 2.5 Flash, un modèle plus petit et plus efficace annoncé la semaine dernière. Un porte-parole a informé TechCrunch qu'un rapport pour Flash est « à venir prochainement ».

« J'espère que c'est une promesse de Google de commencer à publier des mises à jour plus fréquentes », a déclaré Woodside à TechCrunch. « Ces mises à jour devraient inclure les résultats des évaluations pour les modèles qui n'ont pas encore été déployés publiquement, car ces modèles pourraient également présenter des risques sérieux. »

Bien que Google ait été parmi les premiers laboratoires d'IA à proposer des rapports standardisés pour les modèles, il n'est pas seul à être critiqué pour un manque de transparence. Meta a publié une évaluation de sécurité tout aussi brève pour ses nouveaux modèles ouverts Llama 4, et OpenAI a choisi de ne pas publier de rapport pour sa série GPT-4.1.

Les assurances de Google aux régulateurs concernant le maintien de normes élevées dans les tests et rapports de sécurité de l'IA ajoutent de la pression à la situation. Il y a deux ans, Google a promis au gouvernement américain de publier des rapports de sécurité pour tous les modèles d'IA publics « significatifs » dans le cadre, suivi d'engagements similaires envers d'autres pays, promettant une « transparence publique » autour des produits d'IA.

Kevin Bankston, conseiller principal en gouvernance de l'IA au Center for Democracy and Technology, a décrit la tendance des rapports sporadiques et vagues comme une « course vers le bas » en matière de sécurité de l'IA.

« Combiné avec des rapports indiquant que des laboratoires concurrents comme OpenAI ont réduit leur temps de test de sécurité avant la sortie de plusieurs mois à quelques jours, cette documentation maigre pour le principal modèle d'IA de Google raconte une histoire troublante d'une course vers le bas en matière de sécurité et de transparence de l'IA alors que les entreprises se précipitent pour commercialiser leurs modèles », a-t-il déclaré à TechCrunch.

Google a déclaré que, bien que non détaillé dans ses rapports techniques, il effectue des tests de sécurité et un « adversarial red teaming » pour les modèles avant leur sortie.

Mis à jour le 22/04 à 12h58 Pacifique : Modification du langage concernant la référence du rapport technique au FSF de Google.

Article connexe
Google dévoile les modèles AI Gemini 2.5 prêts pour la production pour rivaliser avec OpenAI sur le marché des entreprises Google dévoile les modèles AI Gemini 2.5 prêts pour la production pour rivaliser avec OpenAI sur le marché des entreprises Google a intensifié sa stratégie AI lundi, lançant ses modèles avancés Gemini 2.5 pour une utilisation en entreprise et introduisant une variante économique pour concurrencer sur le prix et la perform
Google Dévoile l’Outil Simplifier Propulsé par l’IA pour une Lecture Web Plus Facile Google Dévoile l’Outil Simplifier Propulsé par l’IA pour une Lecture Web Plus Facile L’application iOS de Google inclut désormais une fonctionnalité « Simplifier », exploitant l’IA pour transformer les textes complexes du web en contenu clair et compréhensible sans quitter la page.L’o
Chatbot Gemini Améliore les Capacités d'Édition d'Images Chatbot Gemini Améliore les Capacités d'Édition d'Images L'application de chatbot Gemini de Google permet désormais aux utilisateurs d'éditer des images générées par IA et téléchargées depuis des téléphones ou des ordinateurs, a annoncé la société dans un b
commentaires (6)
0/200
MarkSanchez
MarkSanchez 1 août 2025 15:47:34 UTC+02:00

Google's AI safety report sounds like a half-baked cake – looks good but lacks substance. 😕 Why skimp on the details? Transparency matters when stakes are this high.

WalterKing
WalterKing 29 avril 2025 17:19:22 UTC+02:00

Der Bericht von Google über Gemini 2.5 Pro ist ein bisschen enttäuschend. Ich hatte mehr Details zu den Sicherheitsbewertungen erwartet, aber es scheint, als würden sie Informationen zurückhalten. Ohne die ganze Geschichte ist es schwer, der KI vollständig zu vertrauen. Vielleicht beim nächsten Mal, Google? 🤔

CharlesThomas
CharlesThomas 29 avril 2025 03:17:55 UTC+02:00

ジェミニ2.5プロのレポート、ちょっとがっかりですね。安全評価の詳細をもっと知りたかったのに、情報が少なすぎる。AIを完全に信頼するのは難しいです。次回はもっと詳しくお願いします!😅

AlbertWalker
AlbertWalker 29 avril 2025 01:15:07 UTC+02:00

Google's report on Gemini 2.5 Pro is a bit of a letdown. I was expecting more juicy details about the safety assessments, but it feels like they're holding back. It's hard to trust the AI fully without knowing the full story. Maybe next time, Google? 🤔

JimmyGarcia
JimmyGarcia 28 avril 2025 22:01:42 UTC+02:00

O relatório do Google sobre o Gemini 2.5 Pro é um pouco decepcionante. Esperava mais detalhes sobre as avaliações de segurança, mas parece que eles estão escondendo algo. É difícil confiar totalmente na IA sem saber toda a história. Talvez na próxima, Google? 🤔

BillyThomas
BillyThomas 28 avril 2025 01:41:33 UTC+02:00

El informe de Google sobre Gemini 2.5 Pro es decepcionante. Esperaba más detalles sobre las evaluaciones de seguridad, pero parece que están ocultando información. Es difícil confiar en la IA sin conocer toda la historia. ¿Tal vez la próxima vez, Google? 🤔

Retour en haut
OR