Ironwood es el nuevo chip de acelerador de IA de Google
En la conferencia de la próxima nube de esta semana, Google retiró el telón de su último chip de acelerador TPU AI, llamado Ironwood. Esta maravilla de séptima generación marca un cambio significativo, ya que es la primera TPU específicamente adaptada para la inferencia del modelo AI. Establecido para implementarse más adelante este año para los usuarios de Google Cloud, Ironwood estará disponible en dos configuraciones de potencia: un clúster de 256 chips y un clúster masivo de 9,216 chips.
Amin Vahdat, vicepresidente de Google Cloud, compartió su emoción en una publicación de blog, diciendo: "Ironwood es nuestro TPU más potente, capaz y eficiente en energía hasta ahora. Y está diseñado para pensar en el pensamiento de poder e inferencial a escala". Está claro que Google apunta alto con este nuevo chip.
El mercado de aceleradores de IA se está calentando, con Nvidia liderando el cargo, pero no cuente a los gigantes tecnológicos. Amazon está en el juego con sus chips de Entrenium, Inferentia y Graviton, disponibles a través de AWS, mientras que Microsoft está avanzando con instancias de Azure impulsadas por su chip Maia 100 AI.

Créditos de imagen: Google
Según los puntos de referencia internos de Google, Ironwood tiene un golpe con 4,614 tflops de potencia informática máxima. Cada chip viene equipado con 192 GB de RAM dedicada, con un ancho de banda que se acerca a 7.4 TBP. ¡Esa es una potencia de fuego seria!
Ironwood no se trata solo de la fuerza bruta; También es inteligente. Cuenta con un núcleo avanzado llamado Sparsecore, diseñado para manejar el tipo de datos que vería en los sofisticados sistemas de clasificación y recomendación, como aquellos que sugieren qué ropa podría llamar su atención. Los ingenieros de Google también han trabajado para reducir el movimiento de datos y la latencia dentro del chip, lo que debería traducirse en un ahorro de energía significativo.
Mirando hacia el futuro, Google planea tejer Ironwood en su hipercomputadora AI, un clúster informático modular dentro de Google Cloud. Esta integración está en el horizonte, y Vahdat confía, afirmando, "Ironwood representa un avance único en la era de la inferencia, con una mayor potencia de cálculo, capacidad de memoria, avances de redes y confiabilidad".
Actualizado a las 10:45 AM Pacífico: una versión anterior de esta historia se refería por error a Cobalt 100 de Microsoft como un chip AI. En realidad es un chip de uso general; El chip AI correcto de Microsoft es el Maia 100. Hemos hecho la corrección necesaria.
Artículo relacionado
Imagen 4:谷歌最新AI圖像生成器
Google近日發表最新圖像生成AI模型「Imagen 4」,宣稱將為用戶帶來比前代Imagen 3更出色的視覺體驗。本週稍早在Google I/O 2025大會亮相的這款新模型,被譽為在畫質與多樣性方面取得重大突破。Google表示,Imagen 4特別擅長處理織物質感、水珠反光與動物毛髮等精細紋理,同時能輕鬆駕馭寫實與抽象風格。其輸出解析度最高可達2K,
谷歌Gemini代碼助手強化AI編程代理功能
Google旗下AI程式開發助手Gemini Code Assist近期推出全新「代理模式」功能,目前開放預覽體驗。在最新Cloud Next大會上,Google展示這些AI代理如何突破性處理複雜編程任務——從Google文件規格書直接生成完整應用程式,或輕鬆實現跨語言程式碼轉換。更令人驚豔的是,開發者現可在Android Studio等整合開發環境中直接啟
谷歌的人工智慧未來基金可能需要謹慎行事
Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
comentario (5)
0/200
GregoryAllen
18 de abril de 2025 00:00:00 GMT
Google's Ironwood chip sounds cool, but I'm not sure how it'll change my daily AI use. It's all about inference, right? I guess we'll see when it hits Google Cloud. Fingers crossed it's worth the hype! 🤞
0
BrianWalker
24 de abril de 2025 00:00:00 GMT
GoogleのIronwoodチップはクールに聞こえますが、私の日常のAI使用がどのように変わるかはわかりません。推論に特化しているんですよね?Google Cloudに登場したらどうなるか見てみましょう。期待しています!🤞
0
JohnYoung
15 de abril de 2025 00:00:00 GMT
구글의 Ironwood 칩은 멋지게 들리지만, 내 일상적인 AI 사용이 어떻게 변할지 확신이 서지 않아요. 추론에 특화된 거죠? 구글 클라우드에 나오면 어떻게 될지 지켜봐야겠어요. 기대하고 있어요! 🤞
0
EricNelson
17 de abril de 2025 00:00:00 GMT
O chip Ironwood do Google parece legal, mas não tenho certeza de como vai mudar meu uso diário de IA. É tudo sobre inferência, certo? Acho que vamos ver quando chegar ao Google Cloud. Cruzando os dedos para que valha o hype! 🤞
0
AnthonyPerez
23 de abril de 2025 00:00:00 GMT
El chip Ironwood de Google suena genial, pero no estoy seguro de cómo cambiará mi uso diario de IA. Es todo sobre inferencia, ¿verdad? Supongo que veremos cuando llegue a Google Cloud. ¡Crucemos los dedos para que valga la pena el hype! 🤞
0
En la conferencia de la próxima nube de esta semana, Google retiró el telón de su último chip de acelerador TPU AI, llamado Ironwood. Esta maravilla de séptima generación marca un cambio significativo, ya que es la primera TPU específicamente adaptada para la inferencia del modelo AI. Establecido para implementarse más adelante este año para los usuarios de Google Cloud, Ironwood estará disponible en dos configuraciones de potencia: un clúster de 256 chips y un clúster masivo de 9,216 chips.
Amin Vahdat, vicepresidente de Google Cloud, compartió su emoción en una publicación de blog, diciendo: "Ironwood es nuestro TPU más potente, capaz y eficiente en energía hasta ahora. Y está diseñado para pensar en el pensamiento de poder e inferencial a escala". Está claro que Google apunta alto con este nuevo chip.
El mercado de aceleradores de IA se está calentando, con Nvidia liderando el cargo, pero no cuente a los gigantes tecnológicos. Amazon está en el juego con sus chips de Entrenium, Inferentia y Graviton, disponibles a través de AWS, mientras que Microsoft está avanzando con instancias de Azure impulsadas por su chip Maia 100 AI.
Según los puntos de referencia internos de Google, Ironwood tiene un golpe con 4,614 tflops de potencia informática máxima. Cada chip viene equipado con 192 GB de RAM dedicada, con un ancho de banda que se acerca a 7.4 TBP. ¡Esa es una potencia de fuego seria!
Ironwood no se trata solo de la fuerza bruta; También es inteligente. Cuenta con un núcleo avanzado llamado Sparsecore, diseñado para manejar el tipo de datos que vería en los sofisticados sistemas de clasificación y recomendación, como aquellos que sugieren qué ropa podría llamar su atención. Los ingenieros de Google también han trabajado para reducir el movimiento de datos y la latencia dentro del chip, lo que debería traducirse en un ahorro de energía significativo.
Mirando hacia el futuro, Google planea tejer Ironwood en su hipercomputadora AI, un clúster informático modular dentro de Google Cloud. Esta integración está en el horizonte, y Vahdat confía, afirmando, "Ironwood representa un avance único en la era de la inferencia, con una mayor potencia de cálculo, capacidad de memoria, avances de redes y confiabilidad".
Actualizado a las 10:45 AM Pacífico: una versión anterior de esta historia se refería por error a Cobalt 100 de Microsoft como un chip AI. En realidad es un chip de uso general; El chip AI correcto de Microsoft es el Maia 100. Hemos hecho la corrección necesaria.



Google's Ironwood chip sounds cool, but I'm not sure how it'll change my daily AI use. It's all about inference, right? I guess we'll see when it hits Google Cloud. Fingers crossed it's worth the hype! 🤞




GoogleのIronwoodチップはクールに聞こえますが、私の日常のAI使用がどのように変わるかはわかりません。推論に特化しているんですよね?Google Cloudに登場したらどうなるか見てみましょう。期待しています!🤞




구글의 Ironwood 칩은 멋지게 들리지만, 내 일상적인 AI 사용이 어떻게 변할지 확신이 서지 않아요. 추론에 특화된 거죠? 구글 클라우드에 나오면 어떻게 될지 지켜봐야겠어요. 기대하고 있어요! 🤞




O chip Ironwood do Google parece legal, mas não tenho certeza de como vai mudar meu uso diário de IA. É tudo sobre inferência, certo? Acho que vamos ver quando chegar ao Google Cloud. Cruzando os dedos para que valha o hype! 🤞




El chip Ironwood de Google suena genial, pero no estoy seguro de cómo cambiará mi uso diario de IA. Es todo sobre inferencia, ¿verdad? Supongo que veremos cuando llegue a Google Cloud. ¡Crucemos los dedos para que valga la pena el hype! 🤞












