option
Maison
Nouvelles
GEMMA 3 de Google atteint 98% de la précision de Deepseek avec un seul GPU

GEMMA 3 de Google atteint 98% de la précision de Deepseek avec un seul GPU

1 mai 2025
134

L'économie de l'intelligence artificielle est devenue un sujet majeur récemment, notamment avec la start-up DeepSeek AI qui démontre des économies d'échelle impressionnantes dans l'utilisation des puces GPU. Mais Google ne compte pas se laisser distancer. Mercredi, le géant de la technologie a dévoilé son dernier modèle de langage à grande échelle open-source, Gemma 3, qui atteint presque la précision du modèle R1 de DeepSeek, tout en utilisant beaucoup moins de puissance de calcul.

Google a mesuré ces performances à l'aide des scores "Elo", un système couramment utilisé dans les échecs et les sports pour classer les compétiteurs. Gemma 3 a obtenu un score de 1338, juste en dessous des 1363 de R1, ce qui signifie que R1 surpasse techniquement Gemma 3. Cependant, Google estime qu'il faudrait 32 puces GPU H100 de Nvidia pour atteindre le score de R1, alors que Gemma 3 obtient ses résultats avec une seule puce H100. Google vante cet équilibre entre puissance de calcul et score Elo comme le "point idéal".

Dans un article de blog, Google décrit Gemma 3 comme "le modèle le plus performant que vous pouvez exécuter sur un seul GPU ou TPU", en référence à sa propre puce AI personnalisée, l'"unité de traitement tensoriel". L'entreprise affirme que Gemma 3 "offre des performances de pointe pour sa taille", surpassant des modèles comme Llama-405B, DeepSeek-V3 et o3-mini dans les évaluations de préférence humaine sur le classement de LMArena. Cette performance facilite la création d'expériences utilisateur engageantes sur un hôte GPU ou TPU unique.

Comparaison Elo de Google 2025 Gemma 3 Google

Le modèle de Google surpasse également le Llama 3 de Meta en score Elo, que Google estime nécessiter 16 GPU. Il est à noter que ces chiffres pour les modèles concurrents sont des estimations de Google ; DeepSeek AI a seulement révélé utiliser 1 814 GPU H800 de Nvidia, moins puissants, pour R1.

Des informations plus approfondies sont disponibles dans un article de blog pour développeurs sur HuggingFace, où le référentiel de Gemma 3 est accessible. Conçu pour une utilisation sur appareil plutôt que dans des centres de données, Gemma 3 a un nombre de paramètres nettement plus faible comparé à R1 et autres modèles open-source. Avec des comptes de paramètres allant de 1 milliard à 27 milliards, Gemma 3 est assez modeste selon les normes actuelles, tandis que R1 affiche un impressionnant 671 milliards de paramètres, bien qu'il puisse en utiliser sélectivement seulement 37 milliards.

La clé de l'efficacité de Gemma 3 est une technique AI largement utilisée appelée distillation, où les poids d'un modèle entraîné plus grand sont transférés à un modèle plus petit, améliorant ses capacités. De plus, le modèle distillé passe par trois mesures de contrôle qualité : l'apprentissage par renforcement à partir des retours humains (RLHF), l'apprentissage par renforcement à partir des retours machine (RLMF) et l'apprentissage par renforcement à partir des retours d'exécution (RLEF). Ces mesures aident à affiner les sorties du modèle, les rendant plus utiles et améliorant ses capacités en mathématiques et en codage.

Le blog des développeurs de Google détaille ces approches, et un autre article discute des techniques d'optimisation pour le modèle de 1 milliard de paramètres, destiné aux appareils mobiles. Celles-ci incluent la quantification, la mise à jour des dispositions de cache de clés-valeurs, l'amélioration des temps de chargement des variables et le partage de poids GPU.

Google compare Gemma 3 non seulement sur les scores Elo, mais aussi avec son prédécesseur, Gemma 2, et ses modèles propriétaires Gemini sur divers benchmarks comme LiveCodeBench. Bien que Gemma 3 soit généralement moins précis que Gemini 1.5 et Gemini 2.0, Google note qu'il "montre des performances compétitives par rapport aux modèles Gemini fermés", malgré un nombre de paramètres moindre.

Comparaison de Google 2025 Gemma 3 et Gemma 2 Google

Une amélioration significative de Gemma 3 par rapport à Gemma 2 est sa "fenêtre de contexte" plus longue, passant de 8 000 à 128 000 jetons. Cela permet au modèle de traiter des textes plus volumineux comme des articles entiers ou des livres. Gemma 3 est également multimodal, capable de gérer à la fois des entrées textuelles et visuelles, contrairement à son prédécesseur. De plus, il prend en charge plus de 140 langues, une nette amélioration par rapport aux capacités uniquement en anglais de Gemma 2.

Outre ces caractéristiques principales, Gemma 3 présente plusieurs autres aspects intéressants. Un problème avec les grands modèles de langage est le risque qu'ils mémorisent des parties de leurs données d'entraînement, ce qui pourrait entraîner des violations de la vie privée. Les chercheurs de Google ont testé Gemma 3 à cet égard et ont constaté qu'il mémorise les textes longs à un taux inférieur à celui de ses prédécesseurs, suggérant une meilleure protection de la vie privée.

Pour ceux intéressés par les détails techniques, le document technique de Gemma 3 fournit une analyse approfondie des capacités et du développement du modèle.

Article connexe
Création de livres de coloriage alimentés par l'IA : Un guide complet Création de livres de coloriage alimentés par l'IA : Un guide complet Concevoir des livres de coloriage est une entreprise gratifiante, combinant expression artistique et expériences apaisantes pour les utilisateurs. Cependant, le processus peut être laborieux. Heureuse
Qodo s'associe à Google Cloud pour offrir des outils gratuits d'examen de code par IA aux développeurs Qodo s'associe à Google Cloud pour offrir des outils gratuits d'examen de code par IA aux développeurs Qodo, une startup israélienne spécialisée dans le codage par IA et axée sur la qualité du code, a lancé un partenariat avec Google Cloud pour améliorer l'intégrité des logiciels générés par IA.À mesur
L'IA de DeepMind remporte l'or à l'Olympiade de Mathématiques 2025 L'IA de DeepMind remporte l'or à l'Olympiade de Mathématiques 2025 L'IA de DeepMind a réalisé un bond spectaculaire en raisonnement mathématique, décrochant une médaille d'or à l'Olympiade Internationale de Mathématiques (IMO) 2025, un an après l'argent en 2024. Cett
commentaires (10)
0/200
RonaldMartinez
RonaldMartinez 17 août 2025 11:00:59 UTC+02:00

Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Curious how this'll shake up the AI startup scene. 🚀

GaryJones
GaryJones 15 août 2025 19:00:59 UTC+02:00

Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Curious how this stacks up in real-world apps! 😎

JonathanDavis
JonathanDavis 13 août 2025 15:00:59 UTC+02:00

Google's Gemma 3 sounds like a game-changer! Achieving 98% of DeepSeek's accuracy with just one GPU is wild. Makes me wonder how this’ll shake up the AI race—more power to the little guys? 🤔

ArthurSanchez
ArthurSanchez 5 août 2025 03:00:59 UTC+02:00

Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's like getting a sports car for the price of a bike! 😎 Can't wait to see how this shakes up the AI race.

EvelynHarris
EvelynHarris 1 août 2025 08:08:50 UTC+02:00

Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Can't wait to see how devs play with this open-source gem! 😎

ArthurLopez
ArthurLopez 3 mai 2025 04:53:19 UTC+02:00

Google's Gemma 3 is pretty impressive, hitting 98% accuracy with just one GPU! 🤯 It's like they're showing off, but in a good way. Makes me wonder if I should switch to Google's tech for my projects. Definitely worth a try, right?

Retour en haut
OR