Option
Heim
Nachricht
Nvidia dominiert Gen AI -Benchmarks und übertrifft zwei konkurrierende AI -Chips

Nvidia dominiert Gen AI -Benchmarks und übertrifft zwei konkurrierende AI -Chips

16. April 2025
161

NVIDIAs Allzweck-GPU-Chips von NVIDIA haben erneut eines der am weitesten verbreiteten Benchmarks für die Beurteilung der Chipleistung in der künstlichen Intelligenz dominiert. Diesmal konzentriert sich diese Zeit auf generative AI-Anwendungen wie große Sprachmodelle (LLMs). Der Wettbewerb war relativ einseitig.

Systeme von Supermicro, Hewlett Packard Enterprise, Lenovo und anderen Unternehmen, die jeweils mit bis zu acht NVIDIA -Chips ausgestattet waren, sicherten sich den größten Teil der Top -Stellen im MLPERF -Benchmark -Test, das von den MLCommons, einem Branchenkonsortium, organisiert wurde. Dieser Test, der die Geschwindigkeit misst, mit der Maschinen Token, Prozessabfragen oder Ausgabedatenproben erstellen können-als KI-Inferenz bekannt-war der fünfte in einer Reihe von Vorhersagemaschinen, die im Laufe der Jahre durchgeführt wurden.

Diese neueste Iteration des MLPERF -Benchmarks umfasste neue Tests, die auf gemeinsame generative KI -Aufgaben zugeschnitten waren. Ein Test bewertete die Leistung von Chips auf den Open-Source LLM, LLAM 3.1 405B von Meta, einem wesentlichen Modell, das vor Ort weit verbreitet ist. Ein weiterer Test führte eine interaktive Version von Metas kleinerem Lama 2 70b ein, mit dem Chatbot -Interaktionen simulieren konnten, bei denen die Reaktionszeit von entscheidender Bedeutung ist. Dieser Test misst spezifisch, wie schnell das System das erste Ausgangsmarke erzeugen kann, was die Notwendigkeit schneller Antworten auf Benutzeranforderungen widerspiegelt.

In einem dritten neuen Test wurde die Geschwindigkeit von Verarbeitungsgraphen neuronale Netze bewertet, die komplexe Beziehungen zwischen Unternehmen wie denjenigen in einem sozialen Netzwerk behandeln. These networks have become increasingly vital in generative AI, exemplified by Google's DeepMind unit's use of graph nets in its AlphaFold 2 model, which made significant strides in protein-folding predictions in 2021. Additionally, a fourth test gauged the speed at which LiDAR sensing data can be compiled into an automobile's road map, using a custom neural net developed by MLCommons from existing open-source technologies.

Mlcommons

Mlcommons

Der MLPERF -Wettbewerb umfasst Computer, die von Lenovo, HPE und anderen erstellt wurden und die strengen Anforderungen für die Genauigkeit neuronaler Nettoausgaben einhalten. Jedes System meldet seine Höchstgeschwindigkeit bei der Erzeugung der Ausgabe pro Sekunde, wobei einige Benchmarks die durchschnittliche Latenz messen oder die Zeit für eine Antwort benötigt, um vom Server zurückzukehren.

Der GPUs von NVIDIA hat sich in fast allen Tests innerhalb der geschlossenen Abteilung hervorgetan, in denen die Software -Setup -Regeln das strengste sind.

Mlcommons

Mlcommons

AMD erzielte jedoch mit seiner MI300X -GPU die Top -Punktzahl in zwei Lama 2 70B -Tests und erzielte 103.182 Token pro Sekunde, was signifikant besser war als die neuere Blackwell -GPU von Nvidia. Dieses gewinnende AMD-System wurde von Mangoboost zusammengestellt, einem Startup, das sich auf Plug-in-Karten spezialisiert hat, die die Datenübertragung zwischen GPU-Racks verbessern, und LLMBOOST, deren Software zur Verbesserung der generativen KI-Leistung entwickelt wurde.

Nvidia bestritt den Vergleich der Ergebnisse von AMD mit ihren Blackwell -Ergebnissen und wies darauf hin, dass die Anzahl der in jedem System verwendeten Chips und Computer -Knoten angepasst werden müsste. Dave Salvator, NVIDIA -Direktor für beschleunigte Computerprodukte, betonte in einer E -Mail an ZDNET:

"Die Ergebnisse von Mangoboost spiegeln keinen genauen Leistungsvergleich mit den Ergebnissen von Nvidia wider. AMDs Tests 4x Die Anzahl der GPUs - 32 mi300x GPUs - gegen 8 Nvidia B200S, doch nur ein 3,83% höheres Ergebnis als Nvidia -Einreichung. GPUs in der Einreichung von LLAMA 2 70B Server. "

Google trat auch in den Wettbewerb ein und präsentierte seinen Trillium-Chip, die sechste Iteration seiner internen Tensor-Verarbeitungseinheit (TPU). Es blieb jedoch in einem Test, der die Reaktionsgeschwindigkeit der Abfrage für den stabilen Diffusionsbild-Generationstest misst, signifikant hinter dem Blackwell von Nvidia zurück.

Bei den neuesten MLPERF -Benchmarks wurden weniger Konkurrenten im Vergleich zu früheren Runden die Nvidia in Frage gestellt. Bemerkenswerterweise waren Einsendungen der Habana -Einheit von Intel und Qualcomm, die beide in den vergangenen Jahren teilgenommen hatten.

Trotzdem hatte Intel Grund zu feiern. In der geschlossenen Abteilung für Rechenzentrum führte der Xeon -Mikroprozessor von Intel sieben der 11 Top -Systeme aus und übertraf AMDs EPYC -Server -Mikroprozessor, das nur drei Siege sicherte. Dies markiert eine Verbesserung für Intel im Vergleich zu den Vorjahren.

Das 11. Top-Performing-System, das mit der Verarbeitung von massiven Lama 3.1 405b von Meta beauftragt wurde, wurde von Nvidia ohne Verwendung eines Intel- oder AMD-Mikroprozessors erstellt. Stattdessen verwendete es den integrierten Grace-Blackwell 200-Chip und kombinierte die Blackwell-GPU von Nvidia mit einem eigenen Grace-Mikroprozessor in einem einzigen Paket.

Verwandter Artikel
Realitätscheck für Generation Z: KI-Fälschungen und kritisches Denken Realitätscheck für Generation Z: KI-Fälschungen und kritisches Denken Die Herausforderungen der Generation Z in der digitalen WeltIn der heutigen digitalisierten Welt, in der Generation Z aufgewachsen ist und mit dem Internet umgehen kann, stehen die
Geheimnisse des Erfolgs bei Kaltemails von Alex Hormozi für Lead-Generierung Geheimnisse des Erfolgs bei Kaltemails von Alex Hormozi für Lead-Generierung Wenn Sie Ihre Strategie zur Kundenakquise verbessern möchten, könnte das Beherrschen von Cold E-Mails Ihr Spielveränderer sein. Viele Unternehmen finden es jedoch schwierig, substa
Leitfaden zum Entsperren von Geschichtenerzählen mit Gen AI -Tools Leitfaden zum Entsperren von Geschichtenerzählen mit Gen AI -Tools In der heutigen schnelllebigen digitalen Welt war die Kunst des Geschichtenerzählens noch nie wichtiger. Unabhängig davon, ob Sie Projekte verwalten, Produkte verwalten oder einfach Ihre Kreativität ausdrücken, das Geschichtenerzählen kann Ihr Publikum wirklich einbeziehen und sinnvolle Interaktionen fördern. Das Aufkommen der generativen KI ist Transfo
Kommentare (40)
0/200
JustinScott
JustinScott 17. April 2025 00:00:00 MESZ

Nvidia's chips are just crushing it in the AI world! I mean, who else can keep up with their performance in generative AI? It's like watching a one-sided race, but hey, if you're into tech, you gotta appreciate the dominance. Maybe it's time for the others to step up their game! 🚀

WillGarcía
WillGarcía 18. April 2025 00:00:00 MESZ

NvidiaのチップはAI分野で圧倒的ですね!生成AIでのパフォーマンスは他社が追いつけないレベル。まるで一方的なレースを見ているようですが、テクノロジーに興味があるなら、この優位性を評価せざるを得ません。他の会社も頑張ってほしいですね!🚀

DonaldSanchez
DonaldSanchez 17. April 2025 00:00:00 MESZ

Nvidia의 칩은 AI 분야에서 정말 압도적이에요! 생성 AI에서의 성능은 다른 회사들이 따라잡을 수 없는 수준이에요. 마치 일방적인 경주를 보는 것 같지만, 기술에 관심이 있다면 이 우위를 인정하지 않을 수 없어요. 다른 회사들도 힘내야겠죠! 🚀

BrianThomas
BrianThomas 17. April 2025 00:00:00 MESZ

Os chips da Nvidia estão dominando o mundo da IA! Quer dizer, quem mais consegue acompanhar o desempenho deles em IA generativa? É como assistir a uma corrida unilateral, mas, ei, se você gosta de tecnologia, tem que apreciar essa dominância. Talvez seja hora dos outros aumentarem o jogo! 🚀

JustinAnderson
JustinAnderson 17. April 2025 00:00:00 MESZ

¡Los chips de Nvidia están dominando el mundo de la IA! Quiero decir, ¿quién más puede seguir su rendimiento en IA generativa? Es como ver una carrera unilateral, pero, oye, si te gusta la tecnología, tienes que apreciar esta dominancia. ¡Quizás es hora de que los demás suban su juego! 🚀

JuanLopez
JuanLopez 17. April 2025 00:00:00 MESZ

Nvidia's GPU chips are just unreal! They absolutely crushed it in the gen AI benchmarks. I mean, who even comes close? It's like watching a race where one car laps the others twice. Still, I wish they'd focus more on energy efficiency too. 🤓🔥

Zurück nach oben
OR