Ironwood est la nouvelle puce d'accélérateur d'IA de Google
Lors de la conférence Cloud Next de cette semaine, Google a dévoilé son dernier accélérateur AI TPU, baptisé Ironwood. Cette merveille de septième génération marque un tournant significatif, car c'est le premier TPU spécifiquement conçu pour l'inférence des modèles AI. Prévu pour être déployé plus tard cette année pour les utilisateurs de Google Cloud, Ironwood sera disponible en deux configurations puissantes : un cluster de 256 puces et un cluster massif de 9 216 puces.
Amin Vahdat, vice-président de Google Cloud, a partagé son enthousiasme dans un article de blog, déclarant : « Ironwood est notre TPU le plus puissant, le plus performant et le plus économe en énergie à ce jour. Et il est conçu spécifiquement pour alimenter des modèles AI pensants et inférentiels à grande échelle. » Il est clair que Google voit grand avec cette nouvelle puce.
Le marché des accélérateurs AI s'échauffe, avec Nvidia en tête, mais ne sous-estimez pas les géants de la technologie. Amazon est dans la course avec ses puces Trainium, Inferentia et Graviton, disponibles via AWS, tandis que Microsoft avance avec des instances Azure alimentées par sa puce AI Maia 100.

Crédits image : Google Selon les benchmarks internes de Google, Ironwood offre une puissance impressionnante avec 4 614 TFLOPs de performance de calcul maximale. Chaque puce est équipée de 192 Go de RAM dédiée, avec une bande passante atteignant près de 7,4 Tbps. C'est une puissance de feu considérable !
Ironwood ne se contente pas de la force brute ; il est aussi intelligent. Il intègre un cœur avancé appelé SparseCore, conçu pour gérer les types de données que l'on trouve dans les systèmes de classement et de recommandation sophistiqués, comme ceux qui suggèrent des vêtements susceptibles de vous plaire. Les ingénieurs de Google ont également travaillé à réduire les mouvements de données et la latence au sein de la puce, ce qui devrait se traduire par des économies d'énergie significatives.
À l'avenir, Google prévoit d'intégrer Ironwood dans son AI Hypercomputer, un cluster informatique modulaire au sein de Google Cloud. Cette intégration est à l'horizon, et Vahdat est confiant, déclarant : « Ironwood représente une percée unique à l'ère de l'inférence, avec une puissance de calcul accrue, une capacité de mémoire augmentée, des avancées en matière de réseau et une fiabilité améliorée. »
Mis à jour à 10h45, heure du Pacifique : une version précédente de cet article mentionnait par erreur la puce Cobalt 100 de Microsoft comme une puce AI. Il s'agit en réalité d'une puce à usage général ; la puce AI correcte de Microsoft est la Maia 100. Nous avons effectué la correction nécessaire.
Article connexe
Google dévoile les modèles AI Gemini 2.5 prêts pour la production pour rivaliser avec OpenAI sur le marché des entreprises
Google a intensifié sa stratégie AI lundi, lançant ses modèles avancés Gemini 2.5 pour une utilisation en entreprise et introduisant une variante économique pour concurrencer sur le prix et la perform
Google Dévoile l’Outil Simplifier Propulsé par l’IA pour une Lecture Web Plus Facile
L’application iOS de Google inclut désormais une fonctionnalité « Simplifier », exploitant l’IA pour transformer les textes complexes du web en contenu clair et compréhensible sans quitter la page.L’o
Google Cloud Améliore les Outils Multimédias IA avec de Nouvelles Fonctionnalités Musicales et Vidéo
Mercredi, Google a dévoilé des améliorations de sa plateforme cloud Vertex AI, renforçant plusieurs modèles d'IA propriétaires pour la génération de contenus multimédias.Lyria, l'IA de Google pour la
commentaires (7)
0/200
DouglasScott
4 août 2025 08:48:52 UTC+02:00
Ironwood sounds like a beast for AI inference! Google’s really stepping up their game, but I wonder how it stacks against Nvidia’s chips. Excited to see real-world benchmarks! 🚀
0
KeithNelson
4 août 2025 08:48:52 UTC+02:00
Google's Ironwood chip sounds like a game-changer for AI inference! Excited to see how it stacks up against Nvidia's offerings. 🚀
0
BrianWalker
23 avril 2025 19:13:10 UTC+02:00
GoogleのIronwoodチップはクールに聞こえますが、私の日常のAI使用がどのように変わるかはわかりません。推論に特化しているんですよね?Google Cloudに登場したらどうなるか見てみましょう。期待しています!🤞
0
AnthonyPerez
23 avril 2025 03:08:12 UTC+02:00
El chip Ironwood de Google suena genial, pero no estoy seguro de cómo cambiará mi uso diario de IA. Es todo sobre inferencia, ¿verdad? Supongo que veremos cuando llegue a Google Cloud. ¡Crucemos los dedos para que valga la pena el hype! 🤞
0
GregoryAllen
18 avril 2025 06:03:09 UTC+02:00
Google's Ironwood chip sounds cool, but I'm not sure how it'll change my daily AI use. It's all about inference, right? I guess we'll see when it hits Google Cloud. Fingers crossed it's worth the hype! 🤞
0
EricNelson
16 avril 2025 20:08:12 UTC+02:00
O chip Ironwood do Google parece legal, mas não tenho certeza de como vai mudar meu uso diário de IA. É tudo sobre inferência, certo? Acho que vamos ver quando chegar ao Google Cloud. Cruzando os dedos para que valha o hype! 🤞
0
Lors de la conférence Cloud Next de cette semaine, Google a dévoilé son dernier accélérateur AI TPU, baptisé Ironwood. Cette merveille de septième génération marque un tournant significatif, car c'est le premier TPU spécifiquement conçu pour l'inférence des modèles AI. Prévu pour être déployé plus tard cette année pour les utilisateurs de Google Cloud, Ironwood sera disponible en deux configurations puissantes : un cluster de 256 puces et un cluster massif de 9 216 puces.
Amin Vahdat, vice-président de Google Cloud, a partagé son enthousiasme dans un article de blog, déclarant : « Ironwood est notre TPU le plus puissant, le plus performant et le plus économe en énergie à ce jour. Et il est conçu spécifiquement pour alimenter des modèles AI pensants et inférentiels à grande échelle. » Il est clair que Google voit grand avec cette nouvelle puce.
Le marché des accélérateurs AI s'échauffe, avec Nvidia en tête, mais ne sous-estimez pas les géants de la technologie. Amazon est dans la course avec ses puces Trainium, Inferentia et Graviton, disponibles via AWS, tandis que Microsoft avance avec des instances Azure alimentées par sa puce AI Maia 100.
Selon les benchmarks internes de Google, Ironwood offre une puissance impressionnante avec 4 614 TFLOPs de performance de calcul maximale. Chaque puce est équipée de 192 Go de RAM dédiée, avec une bande passante atteignant près de 7,4 Tbps. C'est une puissance de feu considérable !
Ironwood ne se contente pas de la force brute ; il est aussi intelligent. Il intègre un cœur avancé appelé SparseCore, conçu pour gérer les types de données que l'on trouve dans les systèmes de classement et de recommandation sophistiqués, comme ceux qui suggèrent des vêtements susceptibles de vous plaire. Les ingénieurs de Google ont également travaillé à réduire les mouvements de données et la latence au sein de la puce, ce qui devrait se traduire par des économies d'énergie significatives.
À l'avenir, Google prévoit d'intégrer Ironwood dans son AI Hypercomputer, un cluster informatique modulaire au sein de Google Cloud. Cette intégration est à l'horizon, et Vahdat est confiant, déclarant : « Ironwood représente une percée unique à l'ère de l'inférence, avec une puissance de calcul accrue, une capacité de mémoire augmentée, des avancées en matière de réseau et une fiabilité améliorée. »
Mis à jour à 10h45, heure du Pacifique : une version précédente de cet article mentionnait par erreur la puce Cobalt 100 de Microsoft comme une puce AI. Il s'agit en réalité d'une puce à usage général ; la puce AI correcte de Microsoft est la Maia 100. Nous avons effectué la correction nécessaire.




Ironwood sounds like a beast for AI inference! Google’s really stepping up their game, but I wonder how it stacks against Nvidia’s chips. Excited to see real-world benchmarks! 🚀




Google's Ironwood chip sounds like a game-changer for AI inference! Excited to see how it stacks up against Nvidia's offerings. 🚀




GoogleのIronwoodチップはクールに聞こえますが、私の日常のAI使用がどのように変わるかはわかりません。推論に特化しているんですよね?Google Cloudに登場したらどうなるか見てみましょう。期待しています!🤞




El chip Ironwood de Google suena genial, pero no estoy seguro de cómo cambiará mi uso diario de IA. Es todo sobre inferencia, ¿verdad? Supongo que veremos cuando llegue a Google Cloud. ¡Crucemos los dedos para que valga la pena el hype! 🤞




Google's Ironwood chip sounds cool, but I'm not sure how it'll change my daily AI use. It's all about inference, right? I guess we'll see when it hits Google Cloud. Fingers crossed it's worth the hype! 🤞




O chip Ironwood do Google parece legal, mas não tenho certeza de como vai mudar meu uso diário de IA. É tudo sobre inferência, certo? Acho que vamos ver quando chegar ao Google Cloud. Cruzando os dedos para que valha o hype! 🤞












