メタは、長いコンテキストスカウトとマーベリックモデルでラマ4を発表します。
2025年4月16日
HenryWalker
59
2025年1月に、AIの世界は、比較的未知の中国のAIスタートアップであるDeepseekが、画期的なオープンソース言語推論モデルであるDeepseek R1でガントレットを投げたときに揺れ動きました。このモデルは、メタのようなものを上回っただけでなく、わずか数百万ドルであると不明なコストでそうしました。それは、メタがそのAIチームリーダーの数人に費やす可能性のある一種の予算です!このニュースは、特に最新のLlamaモデルであるバージョン3.3が1か月前にリリースされて以来、メタを少し狂乱にしました。
今日に早送りし、メタの創設者兼CEOであるマーク・ザッカーバーグがInstagramに連れて行き、新しいLlama 4シリーズの発売を発表しました。このシリーズには、400億パラメーターのLlama 4 Maverickと1,000億パラメーターLlama 4 Scoutが含まれています。また、2〜2兆億兆個のパラメーターモデルであるLlama 4 Behemoth、まだトレーニング中のスニークピークがあり、リリース日が見えません。
マルチモーダルおよびロングコンテキスト機能
これらの新しいモデルの傑出した特徴の1つは、マルチモーダルの性質です。彼らはテキストだけではありません。彼らはビデオと画像も扱うことができます。そして、彼らには信じられないほど長いコンテキストの窓があります。マーベリックには100万トークン、スカウトはなんと1000万トークンです。それを見ると、それは一度に最大1,500ページと15,000ページのテキストを処理するようなものです!膨大な量の情報を処理および生成するために必要な医学、科学、文学などの分野の可能性を想像してください。
混合物のアーキテクチャ
3つのLlama 4モデルはすべて、OpenaiやMistralなどの企業で普及している「Experts(MOE)の混合(MOE)」アーキテクチャを採用しています。このアプローチは、複数の小さく、専門化されたモデルを1つのより大きく、より効率的なモデルに組み合わせています。各llama 4モデルは128人の異なる専門家の組み合わせです。これは、必要な専門家と各トークンのハンドルを共有する1つのハンドルのみを意味し、モデルをより費用対効果が高く、実行しやすくします。 Metaは、Llama 4 Maverickを単一のNvidia H100 DGXホストで実行し、展開を簡単にすることができると自慢しています。
費用対効果とアクセス可能
メタとは、これらのモデルにアクセスできるようにすることです。 ScoutとMaverickはどちらも自己ホーストに利用でき、魅力的なコストの見積もりを共有しています。たとえば、Llama 4 Maverickの推論コストは、100トークンあたり0.19ドルから0.49ドルです。これは、GPT-4oのような他の独自モデルと比較して盗みです。また、クラウドプロバイダーを介してこれらのモデルを使用することに興味がある場合、GROQはすでに競争力のある価格設定を強化しています。
強化された推論とメタップ
これらのモデルは、推論、コーディング、問題解決を念頭に置いて構築されています。メタは、トレーニング中にいくつかの巧妙なテクニックを使用して、簡単なプロンプトを削除したり、ますます困難なプロンプトで継続的な補強学習を使用するなど、これらの機能を高めるために使用しました。また、メタップは、1つのモデルにハイパーパラメーターを設定し、他のモデルに適用して時間とお金を節約できる新しい手法であるメタップを導入しました。それはゲームチェンジャーです。特に、32K GPUを使用し、30兆個以上のトークンをプロセスするBehemothのようなモンスターをトレーニングするためのものです。
パフォーマンスと比較
それでは、これらのモデルはどのように積み重ねられますか? Zuckerbergは、充電をリードするオープンソースAIに対する彼のビジョンについて明確であり、Llama 4はその方向への大きな一歩です。彼らは全面的に新しいパフォーマンスレコードを設定しないかもしれませんが、彼らは確かに彼らのクラスのトップに近いです。たとえば、Llama 4 Behemothは、特定のベンチマークでいくつかの重い打者を上回りますが、他のベンチマークとOpenaiのO1シリーズでまだキャッチアップしています。
llama 4 Behemoth
- Math-500(95.0)、GPQA Diamond(73.7)、およびMMLU Pro(82.2)のGPT-4.5、Gemini 2.0 Pro、およびClaude Sonnet 3.7を上回る

ラマ4マーベリック
- Chartqa、Docvqa、Mathvista、Mmmuなどのほとんどのマルチモーダル推論ベンチマークでGPT-4OとGEMINI 2.0のフラッシュ
- Active Parametersの半分未満を使用しながら、Deepseek v3.1との競争
- ベンチマークスコア:Chartqa(90.0)、docvqa(94.4)、MMLU Pro(80.5)

ラマ4スカウト
- Mistral 3.1、Gemini 2.0 Flash-lite、Gemma 3のDOCVQA(94.4)、MMLU Pro(74.3)、Mathvista(70.7)などのモデルをマッチまたはアウトパフォームします
- 比類のない10mトークンコンテキストの長さ - 長いドキュメントとコードベースのためのideal

DeepSeek R1との比較
ビッグリーグに関しては、Llama 4 Behemothは独自のものを保持していますが、Deepseek R1またはOpenaiのO1シリーズを完全に退位させません。 Math-500とMMLUで少し遅れていますが、GPQAダイヤモンドで先に進んでいます。それでも、Llama 4が推論空間の強力な競争相手であることは明らかです。
ベンチマーク llama 4 Behemoth Deepseek R1 Openai O1-1217 Math-500 95.0 97.3 96.4 GPQAダイヤモンド 73.7 71.5 75.7 mmlu 82.2 90.8 91.8
安全性と政治的中立性
メタも安全を忘れていません。彼らは、ラマガード、プロンプトガード、サイバーセバルなどのツールを導入して、物事を上昇させておきます。そして、彼らは、特に2024年の選挙後の共和党政治に対するザッカーバーグが顕著に支持した後、よりバランスのとれたアプローチを目指して、政治的偏見を減らすことについて主張しています。
ラマ4の未来
Llama 4を使用すると、MetaはAIの効率、開放性、パフォーマンスの境界を押し広げています。エンタープライズレベルのAIアシスタントを構築する場合でも、AIの研究に深く入り込む場合でも、Llama 4は推論に優先する強力で柔軟なオプションを提供します。メタがAIを誰にとってもよりアクセスしやすくインパクトのあるものにすることに取り組んでいることは明らかです。
関連記事
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN
The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
GAIA Introduces New Benchmark in Quest for True Intelligence Beyond ARC-AGI
Intelligence is everywhere, yet gauging it accurately feels like trying to catch a cloud with your bare hands. We use tests and benchmarks, like college entrance exams, to get a rough idea. Each year, students cram for these tests, sometimes even scoring a perfect 100%. But does that perfect score m
How we’re using AI to help cities tackle extreme heat
It's looking like 2024 might just break the record for the hottest year yet, surpassing 2023. This trend is particularly tough on folks living in urban heat islands—those spots in cities where concrete and asphalt soak up the sun's rays and then radiate the heat right back out. These areas can warm
コメント (20)
0/200
TimothyEvans
2025年4月19日 4:25:17 GMT
Just heard about Meta's Llama 4 and it sounds insane! 2T parameters? That's a monster! Can't wait to see how it performs compared to DeepSeek R1. Hope it's not just hype, but if it lives up to the buzz, it's gonna be 🔥! Anyone tried it yet?
0
EricJohnson
2025年4月17日 12:34:32 GMT
メタのラマ4、2Tパラメータって聞いてびっくり!ディープシークR1と比べてどんな感じなのか楽しみ。期待が大きいだけに、実際に使ってみないとわからないけど、期待してるよ!誰かもう試した?😊
0
JohnGarcia
2025年4月22日 3:11:00 GMT
Acabo de enterarme de Llama 4 de Meta y ¡es una locura! ¡2T parámetros! Espero que no sea solo hype, pero si cumple con las expectativas, va a ser increíble. ¿Alguien ya lo ha probado? ¡Quiero saber más! 😎
0
NicholasLewis
2025年4月21日 13:31:17 GMT
Acabei de ouvir sobre o Llama 4 da Meta e parece insano! 2T parâmetros? Isso é um monstro! Mal posso esperar para ver como se compara ao DeepSeek R1. Espero que não seja só hype, mas se corresponder ao burburinho, vai ser 🔥! Alguém já testou?
0
PaulGonzalez
2025年4月21日 10:16:18 GMT
Gerade von Meta's Llama 4 gehört und es klingt verrückt! 2T Parameter? Das ist ein Riese! Kann es kaum erwarten zu sehen, wie es sich im Vergleich zu DeepSeek R1 schlägt. Hoffentlich ist es nicht nur Hype, aber wenn es dem Rummel gerecht wird, wird es 🔥! Jemand schon ausprobiert?
0
IsabellaDavis
2025年4月18日 12:35:20 GMT
Meta's Llama 4 is a beast! The long context scout feature is a game-changer for my research. The Maverick models are cool too, but I'm really waiting for that 2T parameter model. Can't wait to see what it can do! 🤓🚀
0






2025年1月に、AIの世界は、比較的未知の中国のAIスタートアップであるDeepseekが、画期的なオープンソース言語推論モデルであるDeepseek R1でガントレットを投げたときに揺れ動きました。このモデルは、メタのようなものを上回っただけでなく、わずか数百万ドルであると不明なコストでそうしました。それは、メタがそのAIチームリーダーの数人に費やす可能性のある一種の予算です!このニュースは、特に最新のLlamaモデルであるバージョン3.3が1か月前にリリースされて以来、メタを少し狂乱にしました。
今日に早送りし、メタの創設者兼CEOであるマーク・ザッカーバーグがInstagramに連れて行き、新しいLlama 4シリーズの発売を発表しました。このシリーズには、400億パラメーターのLlama 4 Maverickと1,000億パラメーターLlama 4 Scoutが含まれています。また、2〜2兆億兆個のパラメーターモデルであるLlama 4 Behemoth、まだトレーニング中のスニークピークがあり、リリース日が見えません。
マルチモーダルおよびロングコンテキスト機能
これらの新しいモデルの傑出した特徴の1つは、マルチモーダルの性質です。彼らはテキストだけではありません。彼らはビデオと画像も扱うことができます。そして、彼らには信じられないほど長いコンテキストの窓があります。マーベリックには100万トークン、スカウトはなんと1000万トークンです。それを見ると、それは一度に最大1,500ページと15,000ページのテキストを処理するようなものです!膨大な量の情報を処理および生成するために必要な医学、科学、文学などの分野の可能性を想像してください。
混合物のアーキテクチャ
3つのLlama 4モデルはすべて、OpenaiやMistralなどの企業で普及している「Experts(MOE)の混合(MOE)」アーキテクチャを採用しています。このアプローチは、複数の小さく、専門化されたモデルを1つのより大きく、より効率的なモデルに組み合わせています。各llama 4モデルは128人の異なる専門家の組み合わせです。これは、必要な専門家と各トークンのハンドルを共有する1つのハンドルのみを意味し、モデルをより費用対効果が高く、実行しやすくします。 Metaは、Llama 4 Maverickを単一のNvidia H100 DGXホストで実行し、展開を簡単にすることができると自慢しています。
費用対効果とアクセス可能
メタとは、これらのモデルにアクセスできるようにすることです。 ScoutとMaverickはどちらも自己ホーストに利用でき、魅力的なコストの見積もりを共有しています。たとえば、Llama 4 Maverickの推論コストは、100トークンあたり0.19ドルから0.49ドルです。これは、GPT-4oのような他の独自モデルと比較して盗みです。また、クラウドプロバイダーを介してこれらのモデルを使用することに興味がある場合、GROQはすでに競争力のある価格設定を強化しています。
強化された推論とメタップ
これらのモデルは、推論、コーディング、問題解決を念頭に置いて構築されています。メタは、トレーニング中にいくつかの巧妙なテクニックを使用して、簡単なプロンプトを削除したり、ますます困難なプロンプトで継続的な補強学習を使用するなど、これらの機能を高めるために使用しました。また、メタップは、1つのモデルにハイパーパラメーターを設定し、他のモデルに適用して時間とお金を節約できる新しい手法であるメタップを導入しました。それはゲームチェンジャーです。特に、32K GPUを使用し、30兆個以上のトークンをプロセスするBehemothのようなモンスターをトレーニングするためのものです。
パフォーマンスと比較
それでは、これらのモデルはどのように積み重ねられますか? Zuckerbergは、充電をリードするオープンソースAIに対する彼のビジョンについて明確であり、Llama 4はその方向への大きな一歩です。彼らは全面的に新しいパフォーマンスレコードを設定しないかもしれませんが、彼らは確かに彼らのクラスのトップに近いです。たとえば、Llama 4 Behemothは、特定のベンチマークでいくつかの重い打者を上回りますが、他のベンチマークとOpenaiのO1シリーズでまだキャッチアップしています。
llama 4 Behemoth
- Math-500(95.0)、GPQA Diamond(73.7)、およびMMLU Pro(82.2)のGPT-4.5、Gemini 2.0 Pro、およびClaude Sonnet 3.7を上回る
ラマ4マーベリック
- Chartqa、Docvqa、Mathvista、Mmmuなどのほとんどのマルチモーダル推論ベンチマークでGPT-4OとGEMINI 2.0のフラッシュ
- Active Parametersの半分未満を使用しながら、Deepseek v3.1との競争
- ベンチマークスコア:Chartqa(90.0)、docvqa(94.4)、MMLU Pro(80.5)
ラマ4スカウト
- Mistral 3.1、Gemini 2.0 Flash-lite、Gemma 3のDOCVQA(94.4)、MMLU Pro(74.3)、Mathvista(70.7)などのモデルをマッチまたはアウトパフォームします
- 比類のない10mトークンコンテキストの長さ - 長いドキュメントとコードベースのためのideal
DeepSeek R1との比較
ビッグリーグに関しては、Llama 4 Behemothは独自のものを保持していますが、Deepseek R1またはOpenaiのO1シリーズを完全に退位させません。 Math-500とMMLUで少し遅れていますが、GPQAダイヤモンドで先に進んでいます。それでも、Llama 4が推論空間の強力な競争相手であることは明らかです。
ベンチマーク | llama 4 Behemoth | Deepseek R1 | Openai O1-1217 |
---|---|---|---|
Math-500 | 95.0 | 97.3 | 96.4 |
GPQAダイヤモンド | 73.7 | 71.5 | 75.7 |
mmlu | 82.2 | 90.8 | 91.8 |
安全性と政治的中立性
メタも安全を忘れていません。彼らは、ラマガード、プロンプトガード、サイバーセバルなどのツールを導入して、物事を上昇させておきます。そして、彼らは、特に2024年の選挙後の共和党政治に対するザッカーバーグが顕著に支持した後、よりバランスのとれたアプローチを目指して、政治的偏見を減らすことについて主張しています。
ラマ4の未来
Llama 4を使用すると、MetaはAIの効率、開放性、パフォーマンスの境界を押し広げています。エンタープライズレベルのAIアシスタントを構築する場合でも、AIの研究に深く入り込む場合でも、Llama 4は推論に優先する強力で柔軟なオプションを提供します。メタがAIを誰にとってもよりアクセスしやすくインパクトのあるものにすることに取り組んでいることは明らかです。




Just heard about Meta's Llama 4 and it sounds insane! 2T parameters? That's a monster! Can't wait to see how it performs compared to DeepSeek R1. Hope it's not just hype, but if it lives up to the buzz, it's gonna be 🔥! Anyone tried it yet?




メタのラマ4、2Tパラメータって聞いてびっくり!ディープシークR1と比べてどんな感じなのか楽しみ。期待が大きいだけに、実際に使ってみないとわからないけど、期待してるよ!誰かもう試した?😊




Acabo de enterarme de Llama 4 de Meta y ¡es una locura! ¡2T parámetros! Espero que no sea solo hype, pero si cumple con las expectativas, va a ser increíble. ¿Alguien ya lo ha probado? ¡Quiero saber más! 😎




Acabei de ouvir sobre o Llama 4 da Meta e parece insano! 2T parâmetros? Isso é um monstro! Mal posso esperar para ver como se compara ao DeepSeek R1. Espero que não seja só hype, mas se corresponder ao burburinho, vai ser 🔥! Alguém já testou?




Gerade von Meta's Llama 4 gehört und es klingt verrückt! 2T Parameter? Das ist ein Riese! Kann es kaum erwarten zu sehen, wie es sich im Vergleich zu DeepSeek R1 schlägt. Hoffentlich ist es nicht nur Hype, aber wenn es dem Rummel gerecht wird, wird es 🔥! Jemand schon ausprobiert?




Meta's Llama 4 is a beast! The long context scout feature is a game-changer for my research. The Maverick models are cool too, but I'm really waiting for that 2T parameter model. Can't wait to see what it can do! 🤓🚀












