opción
Hogar Noticias Nvidia domina los puntos de referencia de Gen AI, superando a dos chips de IA rivales

Nvidia domina los puntos de referencia de Gen AI, superando a dos chips de IA rivales

Fecha de lanzamiento Fecha de lanzamiento 16 de abril de 2025
Autor Autor FredLewis
vistas vistas 123

Los chips GPU de uso general de Nvidia han dominado una vez más uno de los puntos de referencia más ampliamente reconocidos para evaluar el rendimiento de los chips en inteligencia artificial, esta vez centrándose en aplicaciones generativas de IA, como modelos de idiomas grandes (LLM). La competencia era relativamente unilateral.

Los sistemas de Supermicro, Hewlett Packard Enterprise, Lenovo y otras compañías, cada una equipada con hasta ocho chips Nvidia, aseguraron la mayoría de los mejores lugares en la prueba de referencia MLPERF organizada por los MlCommons, un consorcio de la industria. Esta prueba, que mide la velocidad a la que las máquinas pueden producir tokens, consultas de procesos o muestras de datos de salida, conocidas como inferencia de IA, fue el quinto en una serie de puntos de referencia de elaboración de predicciones que se han realizado a lo largo de los años.

Esta última iteración del punto de referencia MLPERF incluyó nuevas pruebas adaptadas a tareas generativas de IA generativas comunes. Una prueba evaluó el rendimiento de los chips en el LLM de código abierto de Meta, LLAMA 3.1 405B, un modelo sustancial ampliamente utilizado en el campo. Otra prueba introdujo una versión interactiva del Llama 2 70b más pequeño de Meta, diseñada para simular las interacciones de chatbot donde el tiempo de respuesta es crucial. Esta prueba mide específicamente la rapidez con que el sistema puede generar el primer token de salida, lo que refleja la necesidad de respuestas rápidas a las indicaciones del usuario.

Una tercera nueva prueba evaluó la velocidad del procesamiento de redes neuronales gráficas, que manejan relaciones complejas entre las entidades, como las de una red social. Estas redes se han vuelto cada vez más vitales en la IA generativa, ejemplificada por el uso de redes gráficas de la unidad DeepMind de Google en su modelo Alfafold 2, que realizó avances significativos en las predicciones de plegado de proteínas en 2021. Además, una cuarta prueba calificó la velocidad en la que los datos de detección de LiDAR se pueden comparar en la mapa de la carretera de un automóvil, utilizando una neta neuronal personalizada desarrollada por Mllcommons de Mllcomce.

Mlcommons

Mlcommons

La competencia MLPERF involucra a las computadoras construidas por Lenovo, HPE y otras, que se adhieren a requisitos estrictos para la precisión de las salidas de redes neuronales. Cada sistema informa su velocidad máxima en la producción de salida por segundo, con algunos puntos de referencia que miden la latencia promedio, o el tiempo necesario para que una respuesta regrese del servidor.

Las GPU de NVIDIA se destacaron en casi todas las pruebas dentro de la división cerrada, donde las reglas de configuración del software son las más estrictas.

Mlcommons

Mlcommons

Sin embargo, AMD, con su GPU MI300X, reclamó el puntaje superior en dos pruebas de LLAMA 2 70B, logrando 103,182 tokens por segundo, que fue significativamente mejor que la nueva GPU de Blackwell de NVIDIA. MangoBoost ensambló este sistema AMD ganador, una startup especializada en tarjetas enchufables que mejoran la transferencia de datos entre los bastidores de GPU, y LLMBoost, su software diseñado para mejorar el rendimiento generativo de la IA.

Nvidia impugnó la comparación de los resultados de AMD con sus puntajes de Blackwell, señalando la necesidad de ajustar el número de chips y los "nodos" de la computadora utilizados en cada sistema. Dave Salvator, director de productos informáticos acelerados de NVIDIA, enfatizado en un correo electrónico a ZDNET:

"Los resultados de Mangoboost no reflejan una comparación de rendimiento precisa con los resultados de NVIDIA. Las pruebas de AMD aplicaban 4X el número de GPU: 32 GPU MI300X - contra 8 NVIDIA B200S, pero solo alcanzó un resultado de 3.83% más alto que el envío NVIDIA. GPUS en el LLAMA 2 70B Servidor de servidor ".

Google también ingresó a la competencia, mostrando su chip Trillium, la sexta iteración de su unidad de procesamiento de tensor interno (TPU). Sin embargo, se retrasó significativamente detrás del Blackwell de Nvidia en una velocidad de respuesta de consulta de medición de prueba para la prueba de generación de imágenes de difusión estable.

Los últimos puntos de referencia de MLPERF vieron a menos competidores desafiando a NVIDIA en comparación con las rondas anteriores. En particular, ausentes fueron las presentaciones de la Unidad de Habana de Intel y Qualcomm, que habían participado en los últimos años.

A pesar de esto, Intel tenía razones para celebrar. En la división cerrada del centro de datos, el microprocesador Xeon de Intel impulsó a siete de los 11 principales sistemas, superando al microprocesador de servidor EPYC de AMD, que obtuvo solo tres victorias. Esto marca una mejora para Intel en comparación con años anteriores.

El undécimo sistema de alto rendimiento, encargado de procesar la Llama Masiva 3.1 405b de Meta, fue construido por NVIDIA sin usar un microprocesador Intel o AMD. En cambio, utilizó el chip integrado Grace-Blackwell 200, combinando la GPU Blackwell de Nvidia con su propio microprocesador Grace en un solo paquete.

Artículo relacionado
Nvidia domine les références Gen AI, surpassant deux puces AI rivales Nvidia domine les références Gen AI, surpassant deux puces AI rivales Les puces GPU à usage général de NVIDIA ont à nouveau dominé l'une des références les plus reconnues pour évaluer les performances des puces dans l'intelligence artificielle, ce qui se concentre cette fois sur des applications d'IA génératives telles que les modèles de grandes langues (LLM). La concurrence était relativement unilatérale.
Doblaje AI: Guía Definitiva para la Creación de Voz Realista Doblaje AI: Guía Definitiva para la Creación de Voz Realista Crear locuciones que suenen naturalmente humanas es una parte vital de la creación de contenido. Aunque contratar actores de voz solía ser el método preferido, a menudo venía con u
Arte de Terror Generado por IA: Explorando el Combustible de Pesadillas Arte de Terror Generado por IA: Explorando el Combustible de Pesadillas La inteligencia artificial está transformando el mundo del arte, especialmente en el escalofriante ámbito del terror. Los generadores de imágenes de IA son ahora expertos en produc
comentario (40)
0/200
JustinScott
JustinScott 17 de abril de 2025 10:43:31 GMT

Nvidia's chips are just crushing it in the AI world! I mean, who else can keep up with their performance in generative AI? It's like watching a one-sided race, but hey, if you're into tech, you gotta appreciate the dominance. Maybe it's time for the others to step up their game! 🚀

WillGarcía
WillGarcía 17 de abril de 2025 23:12:32 GMT

NvidiaのチップはAI分野で圧倒的ですね!生成AIでのパフォーマンスは他社が追いつけないレベル。まるで一方的なレースを見ているようですが、テクノロジーに興味があるなら、この優位性を評価せざるを得ません。他の会社も頑張ってほしいですね!🚀

DonaldSanchez
DonaldSanchez 17 de abril de 2025 02:14:31 GMT

Nvidia의 칩은 AI 분야에서 정말 압도적이에요! 생성 AI에서의 성능은 다른 회사들이 따라잡을 수 없는 수준이에요. 마치 일방적인 경주를 보는 것 같지만, 기술에 관심이 있다면 이 우위를 인정하지 않을 수 없어요. 다른 회사들도 힘내야겠죠! 🚀

BrianThomas
BrianThomas 17 de abril de 2025 12:21:43 GMT

Os chips da Nvidia estão dominando o mundo da IA! Quer dizer, quem mais consegue acompanhar o desempenho deles em IA generativa? É como assistir a uma corrida unilateral, mas, ei, se você gosta de tecnologia, tem que apreciar essa dominância. Talvez seja hora dos outros aumentarem o jogo! 🚀

JustinAnderson
JustinAnderson 16 de abril de 2025 19:17:14 GMT

¡Los chips de Nvidia están dominando el mundo de la IA! Quiero decir, ¿quién más puede seguir su rendimiento en IA generativa? Es como ver una carrera unilateral, pero, oye, si te gusta la tecnología, tienes que apreciar esta dominancia. ¡Quizás es hora de que los demás suban su juego! 🚀

JuanLopez
JuanLopez 16 de abril de 2025 18:01:08 GMT

Nvidia's GPU chips are just unreal! They absolutely crushed it in the gen AI benchmarks. I mean, who even comes close? It's like watching a race where one car laps the others twice. Still, I wish they'd focus more on energy efficiency too. 🤓🔥

Volver arriba
OR