옵션
소식
NVIDIA의 NEW LLAMA-3.1 NEMOTRON ULTRA SKIES의 절반으로 DEEPSEEK R1보다 성능

NVIDIA의 NEW LLAMA-3.1 NEMOTRON ULTRA SKIES의 절반으로 DEEPSEEK R1보다 성능

2025년 4월 13일
74

NVIDIA의 NEW LLAMA-3.1 NEMOTRON ULTRA SKIES의 절반으로 DEEPSEEK R1보다 성능

메타는 최신 LLAMA 4 모델 패밀리를 둘러싼 면밀한 조사를 포기하지만 Nvidia는 META의 초기 LLAMA-3.1-405B-instruct 모델을 기반으로 한 새로운 오픈 소스 대형 언어 모델 (LLM)을 조용히 출시했습니다. LLAMA-3.1-NEMOTRON-ULTRA-253B-V1이라는 이름 의이 모델은 2530 억 개의 매개 변수를 자랑하며 고급 추론, 지시 다음 및 AI 보조 워크 플로에서 탁월하게 설계되었습니다. NVIDIA는 3 월 연례 GPU 기술 컨퍼런스 (GTC) 에서이 모델을 먼저 암시했습니다.

이 릴리스는 건축 혁신과 세심한 훈련 프로세스를 통해 성능 향상에 대한 NVIDIA의 지속적인 노력을 강조합니다. 2025 년 4 월 7 일에 발표 된 모델의 코드, 가중치 및 훈련 후 데이터는 이제 포옹 얼굴에 자유롭게 액세스 할 수 있습니다. 시스템 프롬프트를 기반으로 복잡한 추론 작업과 더 간단한 출력을 원활하게 전환하도록 설계되어 개발자가 응용 프로그램의 유연성을 제공합니다.

효율적인 추론을 위해 설계되었습니다

LLAMA-3.1-NEMOTRON-ULTRA-253B는 NVIDIA의 이전 노력을 기반으로 NAS (Nemotron-Ultra-253B)가 아키텍처를 개선하기위한 NAS (Neural Architecture Search) 프로세스를 통합합니다. 여기에는 건너 뛰는주의 레이어, 융합 피드 포워드 네트워크 (FFN) 및 가변 FFN 압축 비율과 같은 혁신적인 기능이 포함됩니다. 이러한 수정은 모델의 메모리 사용 및 계산 요구 사항을 줄여 출력 품질을 손상시키지 않고 단일 8x H100 GPU 노드에 배포 할 수있게합니다.

NVIDIA는이 모델이 데이터 센터 배포에 비용 효율적으로 강력한 성능을 제공한다고 주장합니다. Nvidia의 B100 및 Hopper Microarchitectures와 호환되며 BF16 및 FP8 정밀 모드 모두에서 테스트되었습니다.

추론 및 조정에 대한 훈련 후

이 모델은 포괄적 인 교육 후 요법을 받았습니다. 여기에는 수학, 코드 생성, 채팅 및 도구 사용과 같은 다양한 도메인에 대한 감독 된 미세 조정이 포함되며, GRPO (Group Relative Policy Optimization)를 통한 강화 학습이 포함되어있어 지시-팔로우 및 추론 능력을 향상시킵니다.

추가 개선은 650 억 개의 토큰 이상의 지식 증류 단계를 통해 이루어졌으며 추가 880 억 개의 토큰에 대한 지속적인 사전 여지가 있습니다. 훈련 데이터 소스에는 FineWeb, Buzz-V1.2 및 Dolma가 포함되었으며, 공공 Corpora 및 합성 생성 방법 모두에서 추출한 사후 훈련 프롬프트 및 응답이 포함되었습니다. 이 접근법은 모델이 추론 모드를 구별하는 데 도움이되었습니다.

수많은 도메인 및 벤치 마크에서 성능 향상

추론을 가능하게 할 때이 모델은 다양한 벤치 마크에서 크게 개선되었습니다. 예를 들어 Math500 벤치 마크에서 성능은 표준 모드에서 80.40%에서 추론을 활성화하여 97.00%로 급증했습니다. 마찬가지로 AIME25 점수는 16.67%에서 72.50%로 증가했으며 LiveCodebench는 29.03%에서 66.31%로 두 배 이상 증가했습니다.

이 모델은 또한 도구 기반 작업 및 일반적인 질문 응답 (GPQA)에서도 뛰어 났으며, 56.60%에 비해 추론 모드에서 76.01%를 기록했습니다. 이러한 벤치 마크는 최대 시퀀스 길이 32,000 토큰으로 수행되었으며, 정확도를 위해 각 테스트를 최대 16 배까지 반복했습니다.

NVIDIA의 모델은 6,710 억 매개 변수를 보유한 최첨단 MOE 모델 DeepSeek R1과 비교하여 매개 변수가 적음에도 불구하고 자체적으로 보유하고 있습니다. GPQA (76.01 vs. 71.5), IFEVAL 명령 (89.45 vs. 83.3) 및 LiveCodeBench 코딩 작업 (66.31 vs. 65.9)과 같은 작업에서 Deepseek R1을 능가합니다. 그러나 특정 수학 평가, 특히 AIME25 (79.8 vs. 72.50) 및 MATH500 (97.3 vs. 97.00)에서 DeepSeek R1은 약간의 가장자리가 나옵니다.

이러한 결과는 NVIDIA의 밀집된 모델이 추론 및 일반적인 교육 정렬에서 MOE 모델을 일치 시키거나 초과 할 수 있음을 나타냅니다.

사용 및 통합

이 모델은 Hugging Face Transformers 라이브러리 (버전 4.48.3 권장)와 완벽하게 통합되며 최대 128,000 개의 토큰의 시퀀스를 지원합니다. 개발자는 시스템 프롬프트를 사용하여 추론 동작을 전환하고 작업 요구에 따라 디코딩 전략을 선택할 수 있습니다. 추론 작업의 경우 NVIDIA는 상위 P 값이 0.95 인 온도 샘플링 (0.6)을 사용하는 반면, 결정 론적 출력에는 욕심 많은 디코딩이 권장됩니다.

LLAMA-3.1-NEMOTRON-ULTRA-253B는 영어, 독일어, 프랑스어, 이탈리아, 포르투갈어, 힌디어, 스페인어 및 태국을 포함한 다국어 응용 프로그램을 지원합니다. 챗봇 개발, AI 에이전트 워크 플로우, 검색 세대 생성 (RAG) 및 코드 생성과 같은 다양한 LLM 사용 사례에 적합합니다.

상업용으로 라이센스가 부여되었습니다

NVIDIA Open Model 라이센스에 따라 릴리스되고 LLAMA 3.1 커뮤니티 라이센스 계약에 의해 관리되는이 모델은 상업용 응용 프로그램을위한 준비가되었습니다. NVIDIA는 책임있는 AI 개발의 중요성을 강조하여 팀이 특정 사용 사례에 대한 모델의 정렬, 안전 및 편견을 평가할 것을 촉구합니다.

NVIDIA의 AI 모델 후 훈련 담당 이사 인 Oleksii Kuchaiev는 X 에서이 오픈 릴리스에 대한 흥분을 공유했으며, 토갈 가능한 추론 기능과 개방형 가중치 및 데이터 포함으로 밀도가 높은 253B 디자인을 강조했습니다.

관련 기사
從 MIPS 到艾弗洛普僅僅數十年:計算能力正在爆炸,將改變 AI 從 MIPS 到艾弗洛普僅僅數十年:計算能力正在爆炸,將改變 AI 在最近的 Nvidia GTC 大會上,這家科技巨頭揭露了一項突破性成就:首個單機架伺服器系統能達到一艾弗洛普。這是一個令人震驚的每秒十億億次浮點運算(FLOPS)。這項壯舉由 Nvidia 最新的 GB200 NVL72 系統驅動,搭載尖端的 Blackwell 圖形處理單元(GPU)。為了讓大家更直觀理解,這個系統安裝在一個標準電腦機架中,大約 6 英尺高,略超過 3 英尺深,寬度不到 2 英
谷歌AI躍升內幕:Gemini 2.5 思維更深、表達更智能且編碼更快 谷歌AI躍升內幕:Gemini 2.5 思維更深、表達更智能且編碼更快 谷歌朝著通用AI助手的願景邁進一步在今年的Google I/O大會上,該公司揭示了其Gemini 2.5系列的重大升級,特別是在多個維度上提升其能力。最新的版本——Gemini 2.5 Flash和2.5 Pro——現在比以往更加聰明和高效。這些進步使谷歌更接近實現其創造通用AI助手的願景,這個助手能夠無縫理解情境、計劃並執行任務。### Gemini 2.
深度認知發布開源AI模型,已名列前茅 深度認知發布開源AI模型,已名列前茅 深度思睿推出革命性的人工智能模型旧金山一家尖端的人工智能研究初创公司深度思睿(Deep Cogito)正式发布了其首批开源大型语言模型(LLMs),命名为思睿v1。这些模型经过微调自Meta的Llama 3.2,具备混合推理能力,能够快速响应或进行内省思考——这一功能让人联想到OpenAI的“o”系列和DeepSeek R1。深度思睿旨在通过在其模型中促进迭
의견 (50)
0/200
KeithNelson
KeithNelson 2025년 4월 14일 오전 12시 0분 0초 GMT

Nvidia's new model is impressive, outperforming others at half the size. It's great for those who need efficiency without sacrificing performance. The only downside is the setup can be a bit tricky. Overall, a solid choice for AI enthusiasts!

RalphMitchell
RalphMitchell 2025년 4월 14일 오전 12시 0분 0초 GMT

Nvidiaの新しいモデルは、半分のサイズで他のモデルを上回るのが印象的です。効率を求める人には最適ですが、セットアップが少し難しいのが唯一の欠点です。全体的に、AI愛好者にとっては良い選択ですね!

GeorgeWilson
GeorgeWilson 2025년 4월 14일 오전 12시 0분 0초 GMT

Nvidia의 새로운 모델은 반 크기에서도 다른 모델을 능가하는 것이 인상적입니다. 효율성을 희생하지 않고 성능을 원하는 사람들에게 좋습니다. 유일한 단점은 설정이 조금 까다롭다는 점입니다. 전반적으로 AI 애호가들에게 좋은 선택입니다!

GeorgeNelson
GeorgeNelson 2025년 4월 14일 오전 12시 0분 0초 GMT

O novo modelo da Nvidia é impressionante, superando outros com metade do tamanho. É ótimo para quem precisa de eficiência sem sacrificar o desempenho. A única desvantagem é que a configuração pode ser um pouco complicada. No geral, uma boa escolha para entusiastas de IA!

GeorgeMiller
GeorgeMiller 2025년 4월 14일 오전 12시 0분 0초 GMT

El nuevo modelo de Nvidia es impresionante, superando a otros con la mitad del tamaño. Es genial para aquellos que necesitan eficiencia sin sacrificar el rendimiento. La única desventaja es que la configuración puede ser un poco complicada. En general, una sólida opción para entusiastas de la IA!

BrianLewis
BrianLewis 2025년 4월 14일 오전 12시 0분 0초 GMT

Nvidia's Llama-3.1 Nemotron Ultra is impressive! It outperforms DeepSeek R1 and is half the size, which is crazy. I've been using it for my projects and it's been a game-changer. The only downside is the setup can be a bit tricky, but once you get it running, it's smooth sailing!

위로 돌아갑니다
OR