Nvidia domina los puntos de referencia de Gen AI, superando a dos chips de IA rivales
Los chips GPU de propósito general de Nvidia han dominado una vez más uno de los puntos de referencia más reconocidos para evaluar el rendimiento de los chips en inteligencia artificial, esta vez centrándose en aplicaciones de IA generativa como modelos de lenguaje grandes (LLMs). La competencia fue relativamente unilateral.
Sistemas de SuperMicro, Hewlett Packard Enterprise, Lenovo y otras compañías, cada uno equipado con hasta ocho chips de Nvidia, aseguraron la mayoría de los primeros puestos en la prueba de referencia MLPerf organizada por el consorcio industrial MLCommons. Esta prueba, que mide la velocidad con la que las máquinas pueden producir tokens, procesar consultas o generar muestras de datos —conocido como inferencia de IA— fue la quinta en una serie de puntos de referencia para predicciones realizados a lo largo de los años.
Esta última iteración del punto de referencia MLPerf incluyó nuevas pruebas adaptadas a tareas comunes de IA generativa. Una prueba evaluó el rendimiento de los chips en el LLM de código abierto de Meta, Llama 3.1 405b, un modelo sustancial ampliamente utilizado en el campo. Otra prueba introdujo una versión interactiva del Llama 2 70b más pequeño de Meta, diseñada para simular interacciones de chatbot donde el tiempo de respuesta es crucial. Esta prueba mide específicamente qué tan rápido el sistema puede generar el primer token de salida, reflejando la necesidad de respuestas rápidas a las indicaciones de los usuarios.
Una tercera prueba nueva evaluó la velocidad de procesamiento de redes neuronales de grafos, que manejan relaciones complejas entre entidades, como las de una red social. Estas redes se han vuelto cada vez más vitales en la IA generativa, ejemplificado por el uso de redes de grafos por parte de la unidad DeepMind de Google en su modelo AlphaFold 2, que logró avances significativos en predicciones de plegamiento de proteínas en 2021. Además, una cuarta prueba midió la velocidad con la que los datos de detección LiDAR pueden compilarse en un mapa vial de un automóvil, utilizando una red neuronal personalizada desarrollada por MLCommons a partir de tecnologías de código abierto existentes.

MLCommons La competencia MLPerf involucra computadoras construidas por Lenovo, HPE y otros, cumpliendo con requisitos estrictos para la precisión de las salidas de las redes neuronales. Cada sistema reporta su velocidad máxima en la producción de salida por segundo, con algunos puntos de referencia midiendo la latencia promedio, o el tiempo que tarda en regresar una respuesta desde el servidor.
Los GPUs de Nvidia destacaron en casi todas las pruebas dentro de la división cerrada, donde las reglas de configuración de software son las más estrictas.

MLCommons Sin embargo, AMD, con su GPU MI300X, reclamó la puntuación más alta en dos pruebas de Llama 2 70b, logrando 103,182 tokens por segundo, lo que fue significativamente mejor que el GPU Blackwell más reciente de Nvidia. Este sistema ganador de AMD fue ensamblado por MangoBoost, una startup especializada en tarjetas enchufables que mejoran la transferencia de datos entre racks de GPU, y LLMboost, su software diseñado para mejorar el rendimiento de la IA generativa.
Nvidia cuestionó la comparación de los resultados de AMD con sus puntajes de Blackwell, señalando la necesidad de ajustar según el número de chips y "nodos" de computadora utilizados en cada sistema. Dave Salvator, director de productos de computación acelerada de Nvidia, enfatizó en un correo electrónico a ZDNET:
"Los resultados de MangoBoost no reflejan una comparación de rendimiento precisa contra los resultados de NVIDIA. Las pruebas de AMD aplicaron 4 veces la cantidad de GPUs – 32 MI300X GPUs – contra 8 NVIDIA B200s, y aun así solo lograron un resultado 3.83% más alto que la presentación de NVIDIA. La presentación de 8x B200 de NVIDIA en realidad superó a los x32 AMD MI300X GPUs de MangoBoost en la presentación de servidor de Llama 2 70B."
Google también participó en la competencia, mostrando su chip Trillium, la sexta iteración de su Unidad de Procesamiento de Tensores (TPU) desarrollada internamente. Sin embargo, quedó significativamente rezagado respecto al Blackwell de Nvidia en una prueba que mide la velocidad de respuesta a consultas para la prueba de generación de imágenes Stable Diffusion.
Los últimos puntos de referencia MLPerf tuvieron menos competidores desafiando a Nvidia en comparación con rondas anteriores. Notablemente ausentes estuvieron las presentaciones de la unidad Habana de Intel y Qualcomm, ambas habían participado en años anteriores.
A pesar de esto, Intel tuvo razones para celebrar. En la división cerrada de centros de datos, el microprocesador Xeon de Intel impulsó siete de los 11 sistemas principales, superando al microprocesador de servidor EPYC de AMD, que logró solo tres victorias. Esto marca una mejora para Intel en comparación con años anteriores.
El undécimo sistema de mayor rendimiento, encargado de procesar el masivo Llama 3.1 405b de Meta, fue construido por Nvidia sin usar un microprocesador de Intel o AMD. En cambio, utilizó el chip integrado Grace-Blackwell 200, combinando el GPU Blackwell de Nvidia con su propio microprocesador Grace en un solo paquete.
Artículo relacionado
Verificación de la Realidad para la Generación Z: Falsificación por IA y Pensamiento Crítico
En el mundo digital acelerado de hoy, la Generación Z, que ha crecido con internet a su alcance, enfrenta desafíos únicos. El auge del contenido generado por IA, que puede ser difí
Alex Hormozi Revela los Secretos para el Éxito de Correos Fríos en la Generación de Leads
Si estás deseando mejorar tu estrategia de adquisición de clientes, dominar el correo frío podría ser tu gran cambio. Sin embargo, muchas empresas encuentran difícil obtener benefi
Nvidia domina los puntos de referencia de Gen AI, superando a dos chips de IA rivales
Los chips GPU de uso general de Nvidia han dominado una vez más uno de los puntos de referencia más ampliamente reconocidos para evaluar el rendimiento de los chips en inteligencia artificial, esta vez centrándose en aplicaciones generativas de IA, como modelos de idiomas grandes (LLM). La competencia era relativamente unilateral.
comentario (41)
0/200
MatthewSanchez
25 de agosto de 2025 11:47:02 GMT+02:00
Nvidia's killing it again with their GPUs! 😎 Those benchmarks for generative AI are insane—makes me wonder if anyone can catch up in the LLM race.
0
RyanAdams
21 de abril de 2025 11:00:03 GMT+02:00
Os chips da Nvidia estão dominando o mundo da IA! Quer dizer, quem mais pode dizer que está dominando os benchmarks assim? É como assistir um gamer profissional totalmente dominar o leaderboard. Mas, um pouco de competição seria bom, né? Continue empurrando os limites, Nvidia! 🚀
0
MatthewGonzalez
19 de abril de 2025 08:23:11 GMT+02:00
Os chips da Nvidia são incríveis nos benchmarks de IA generativa! Eles simplesmente dominam. Mas, acho que eles poderiam melhorar a eficiência energética, né? Seria o máximo! Vamos, Nvidia! 🌟⚡
0
DanielThomas
19 de abril de 2025 07:24:17 GMT+02:00
Nvidia의 칩이 AI 세계에서 압도적이에요! 다른 누구도 이렇게 벤치마크를 지배할 수 없죠. 마치 프로게이머가 리더보드를 완전히 장악하는 걸 보는 것 같아요. 그래도 좀 더 경쟁이 있으면 좋겠어요. Nvidia, 한계를 넓혀가세요! 🚀
0
HenryJackson
19 de abril de 2025 04:11:37 GMT+02:00
NvidiaのチップがAIの世界で圧倒的ですね!他の誰もこれほどベンチマークを支配することはできません。まるでプロゲーマーがリーダーボードを完全に支配しているのを見ているようです。でも、もう少し競争があってもいいですよね?Nvidia、限界を押し広げてください!🚀
0
NicholasYoung
19 de abril de 2025 02:50:53 GMT+02:00
NvidiaのGPUチップは生成AIのベンチマークで圧倒的ですね!競争相手が全く追いつかないのは驚きです。ただ、エネルギー効率も重要だと思うので、そこにも注力してほしいです。頑張れNvidia!💪🔍
0
Los chips GPU de propósito general de Nvidia han dominado una vez más uno de los puntos de referencia más reconocidos para evaluar el rendimiento de los chips en inteligencia artificial, esta vez centrándose en aplicaciones de IA generativa como modelos de lenguaje grandes (LLMs). La competencia fue relativamente unilateral.
Sistemas de SuperMicro, Hewlett Packard Enterprise, Lenovo y otras compañías, cada uno equipado con hasta ocho chips de Nvidia, aseguraron la mayoría de los primeros puestos en la prueba de referencia MLPerf organizada por el consorcio industrial MLCommons. Esta prueba, que mide la velocidad con la que las máquinas pueden producir tokens, procesar consultas o generar muestras de datos —conocido como inferencia de IA— fue la quinta en una serie de puntos de referencia para predicciones realizados a lo largo de los años.
Esta última iteración del punto de referencia MLPerf incluyó nuevas pruebas adaptadas a tareas comunes de IA generativa. Una prueba evaluó el rendimiento de los chips en el LLM de código abierto de Meta, Llama 3.1 405b, un modelo sustancial ampliamente utilizado en el campo. Otra prueba introdujo una versión interactiva del Llama 2 70b más pequeño de Meta, diseñada para simular interacciones de chatbot donde el tiempo de respuesta es crucial. Esta prueba mide específicamente qué tan rápido el sistema puede generar el primer token de salida, reflejando la necesidad de respuestas rápidas a las indicaciones de los usuarios.
Una tercera prueba nueva evaluó la velocidad de procesamiento de redes neuronales de grafos, que manejan relaciones complejas entre entidades, como las de una red social. Estas redes se han vuelto cada vez más vitales en la IA generativa, ejemplificado por el uso de redes de grafos por parte de la unidad DeepMind de Google en su modelo AlphaFold 2, que logró avances significativos en predicciones de plegamiento de proteínas en 2021. Además, una cuarta prueba midió la velocidad con la que los datos de detección LiDAR pueden compilarse en un mapa vial de un automóvil, utilizando una red neuronal personalizada desarrollada por MLCommons a partir de tecnologías de código abierto existentes.
La competencia MLPerf involucra computadoras construidas por Lenovo, HPE y otros, cumpliendo con requisitos estrictos para la precisión de las salidas de las redes neuronales. Cada sistema reporta su velocidad máxima en la producción de salida por segundo, con algunos puntos de referencia midiendo la latencia promedio, o el tiempo que tarda en regresar una respuesta desde el servidor.
Los GPUs de Nvidia destacaron en casi todas las pruebas dentro de la división cerrada, donde las reglas de configuración de software son las más estrictas.
Sin embargo, AMD, con su GPU MI300X, reclamó la puntuación más alta en dos pruebas de Llama 2 70b, logrando 103,182 tokens por segundo, lo que fue significativamente mejor que el GPU Blackwell más reciente de Nvidia. Este sistema ganador de AMD fue ensamblado por MangoBoost, una startup especializada en tarjetas enchufables que mejoran la transferencia de datos entre racks de GPU, y LLMboost, su software diseñado para mejorar el rendimiento de la IA generativa.
Nvidia cuestionó la comparación de los resultados de AMD con sus puntajes de Blackwell, señalando la necesidad de ajustar según el número de chips y "nodos" de computadora utilizados en cada sistema. Dave Salvator, director de productos de computación acelerada de Nvidia, enfatizó en un correo electrónico a ZDNET:
"Los resultados de MangoBoost no reflejan una comparación de rendimiento precisa contra los resultados de NVIDIA. Las pruebas de AMD aplicaron 4 veces la cantidad de GPUs – 32 MI300X GPUs – contra 8 NVIDIA B200s, y aun así solo lograron un resultado 3.83% más alto que la presentación de NVIDIA. La presentación de 8x B200 de NVIDIA en realidad superó a los x32 AMD MI300X GPUs de MangoBoost en la presentación de servidor de Llama 2 70B."
Google también participó en la competencia, mostrando su chip Trillium, la sexta iteración de su Unidad de Procesamiento de Tensores (TPU) desarrollada internamente. Sin embargo, quedó significativamente rezagado respecto al Blackwell de Nvidia en una prueba que mide la velocidad de respuesta a consultas para la prueba de generación de imágenes Stable Diffusion.
Los últimos puntos de referencia MLPerf tuvieron menos competidores desafiando a Nvidia en comparación con rondas anteriores. Notablemente ausentes estuvieron las presentaciones de la unidad Habana de Intel y Qualcomm, ambas habían participado en años anteriores.
A pesar de esto, Intel tuvo razones para celebrar. En la división cerrada de centros de datos, el microprocesador Xeon de Intel impulsó siete de los 11 sistemas principales, superando al microprocesador de servidor EPYC de AMD, que logró solo tres victorias. Esto marca una mejora para Intel en comparación con años anteriores.
El undécimo sistema de mayor rendimiento, encargado de procesar el masivo Llama 3.1 405b de Meta, fue construido por Nvidia sin usar un microprocesador de Intel o AMD. En cambio, utilizó el chip integrado Grace-Blackwell 200, combinando el GPU Blackwell de Nvidia con su propio microprocesador Grace en un solo paquete.




Nvidia's killing it again with their GPUs! 😎 Those benchmarks for generative AI are insane—makes me wonder if anyone can catch up in the LLM race.




Os chips da Nvidia estão dominando o mundo da IA! Quer dizer, quem mais pode dizer que está dominando os benchmarks assim? É como assistir um gamer profissional totalmente dominar o leaderboard. Mas, um pouco de competição seria bom, né? Continue empurrando os limites, Nvidia! 🚀




Os chips da Nvidia são incríveis nos benchmarks de IA generativa! Eles simplesmente dominam. Mas, acho que eles poderiam melhorar a eficiência energética, né? Seria o máximo! Vamos, Nvidia! 🌟⚡




Nvidia의 칩이 AI 세계에서 압도적이에요! 다른 누구도 이렇게 벤치마크를 지배할 수 없죠. 마치 프로게이머가 리더보드를 완전히 장악하는 걸 보는 것 같아요. 그래도 좀 더 경쟁이 있으면 좋겠어요. Nvidia, 한계를 넓혀가세요! 🚀




NvidiaのチップがAIの世界で圧倒的ですね!他の誰もこれほどベンチマークを支配することはできません。まるでプロゲーマーがリーダーボードを完全に支配しているのを見ているようです。でも、もう少し競争があってもいいですよね?Nvidia、限界を押し広げてください!🚀




NvidiaのGPUチップは生成AIのベンチマークで圧倒的ですね!競争相手が全く追いつかないのは驚きです。ただ、エネルギー効率も重要だと思うので、そこにも注力してほしいです。頑張れNvidia!💪🔍












