Meta dévoile Llama 4 avec des modèles Scout et Maverick à long contexte, le géant du paramètre 2T à venir bientôt!
En janvier 2025, le monde de l'IA a été secoué lorsque DeepSeek, une startup chinoise d'IA relativement inconnue, a lancé un défi avec son modèle de raisonnement linguistique open-source révolutionnaire, DeepSeek R1. Ce modèle a non seulement surpassé des géants comme Meta, mais l'a fait à une fraction du coût — on parle de quelques millions de dollars seulement. C'est le genre de budget que Meta pourrait dépenser pour seulement quelques chefs d'équipe IA ! Cette nouvelle a mis Meta dans une certaine frénésie, d'autant plus que leur dernier modèle Llama, version 3.3, sorti juste le mois précédent, semblait déjà un peu dépassé.
Aujourd'hui, le fondateur et PDG de Meta, Mark Zuckerberg, a pris la parole sur Instagram pour annoncer le lancement de la nouvelle série Llama 4. Cette série comprend le Llama 4 Maverick avec 400 milliards de paramètres et le Llama 4 Scout avec 109 milliards de paramètres, tous deux disponibles pour les développeurs à télécharger et à expérimenter immédiatement sur llama.com et Hugging Face. Il y a aussi un aperçu d'un modèle colossal de 2 trillions de paramètres, Llama 4 Behemoth, encore en entraînement, sans date de sortie prévue.
Capacités multimodales et contextes longs
L'une des caractéristiques remarquables de ces nouveaux modèles est leur nature multimodale. Ils ne se limitent pas au texte ; ils peuvent également gérer la vidéo et les images. Et ils disposent de fenêtres de contexte incroyablement longues — 1 million de jetons pour Maverick et pas moins de 10 millions pour Scout. Pour mettre cela en perspective, cela équivaut à traiter jusqu'à 1 500 et 15 000 pages de texte d'un coup ! Imaginez les possibilités pour des domaines comme la médecine, la science ou la littérature où il faut traiter et générer d'énormes quantités d'informations.
Architecture de mélange d'experts
Les trois modèles Llama 4 utilisent l'architecture de "mélange d'experts (MoE)", une technique qui fait des vagues, popularisée par des entreprises comme OpenAI et Mistral. Cette approche combine plusieurs modèles plus petits et spécialisés en un seul modèle plus grand et plus efficace. Chaque modèle Llama 4 est un mélange de 128 experts différents, ce qui signifie que seul l'expert nécessaire et un partagé gèrent chaque jeton, rendant les modèles plus économiques et plus rapides à exécuter. Meta se vante que Llama 4 Maverick peut être exécuté sur un seul hôte Nvidia H100 DGX, facilitant ainsi le déploiement.
Économique et accessible
Meta mise tout sur l'accessibilité de ces modèles. Scout et Maverick sont disponibles pour l'auto-hébergement, et ils ont même partagé des estimations de coûts alléchantes. Par exemple, le coût d'inférence pour Llama 4 Maverick se situe entre 0,19 $ et 0,49 $ par million de jetons, ce qui est une aubaine par rapport à d'autres modèles propriétaires comme GPT-4o. Et si vous souhaitez utiliser ces modèles via un fournisseur de cloud, Groq a déjà proposé des prix compétitifs.
Raisonnement amélioré et MetaP
Ces modèles sont conçus pour le raisonnement, le codage et la résolution de problèmes. Meta a utilisé des techniques astucieuses pendant l'entraînement pour renforcer ces capacités, comme supprimer les invites faciles et utiliser un apprentissage par renforcement continu avec des invites de plus en plus difficiles. Ils ont également introduit MetaP, une nouvelle technique qui permet de définir des hyperparamètres sur un modèle et de les appliquer à d'autres, économisant ainsi du temps et de l'argent. C'est un changement majeur, surtout pour entraîner des monstres comme Behemoth, qui utilise 32 000 GPU et traite plus de 30 trillions de jetons.
Performance et comparaisons
Alors, comment ces modèles se comparent-ils ? Zuckerberg a été clair sur sa vision de l'IA open-source en tête de file, et Llama 4 est un grand pas dans cette direction. Bien qu'ils ne battent pas de nouveaux records de performance à tous les niveaux, ils sont certainement parmi les meilleurs de leur catégorie. Par exemple, Llama 4 Behemoth surpasse certains poids lourds sur certains benchmarks, bien qu'il soit encore à la traîne derrière DeepSeek R1 et la série o1 d'OpenAI dans d'autres.
Llama 4 Behemoth
- Surpasse GPT-4.5, Gemini 2.0 Pro et Claude Sonnet 3.7 sur MATH-500 (95,0), GPQA Diamond (73,7) et MMLU Pro (82,2)

Llama 4 Maverick
- Dépasse GPT-4o et Gemini 2.0 Flash sur la plupart des benchmarks de raisonnement multimodal comme ChartQA, DocVQA, MathVista et MMMU
- Compétitif avec DeepSeek v3.1 tout en utilisant moins de la moitié des paramètres actifs
- Scores de benchmark : ChartQA (90,0), DocVQA (94,4), MMLU Pro (80,5)

Llama 4 Scout
- Égale ou surpasse des modèles comme Mistral 3.1, Gemini 2.0 Flash-Lite et Gemma 3 sur DocVQA (94,4), MMLU Pro (74,3) et MathVista (70,7)
- Longueur de contexte inégalée de 10 millions de jetons — idéale pour les longs documents et les bases de code

Comparaison avec DeepSeek R1
Dans les grandes ligues, Llama 4 Behemoth tient bon mais ne détrône pas tout à fait DeepSeek R1 ou la série o1 d'OpenAI. Il est légèrement en retard sur MATH-500 et MMLU mais en avance sur GPQA Diamond. Pourtant, il est clair que Llama 4 est un concurrent sérieux dans le domaine du raisonnement.
Benchmark Llama 4 Behemoth DeepSeek R1 OpenAI o1-1217 MATH-500 95,0 97,3 96,4 GPQA Diamond 73,7 71,5 75,7 MMLU 82,2 90,8 91,8
Sécurité et neutralité politique
Meta n'a pas non plus oublié la sécurité. Ils ont introduit des outils comme Llama Guard, Prompt Guard et CyberSecEval pour maintenir les choses dans les normes. Et ils insistent sur la réduction des biais politiques, visant une approche plus équilibrée, surtout après le soutien noté de Zuckerberg pour la politique républicaine après l'élection de 2024.
L'avenir avec Llama 4
Avec Llama 4, Meta repousse les limites de l'efficacité, de l'ouverture et de la performance en IA. Que vous cherchiez à construire des assistants IA de niveau entreprise ou à plonger dans la recherche en IA, Llama 4 offre des options puissantes et flexibles qui privilégient le raisonnement. Il est clair que Meta s'engage à rendre l'IA plus accessible et impactante pour tous.
Article connexe
Trump donne la priorité à la croissance de l'IA plutôt qu'à la réglementation dans sa course pour devancer la Chine
L'administration Trump a dévoilé mercredi son plan d'action historique en matière d'IA, marquant une rupture décisive avec les politiques de l'administration Biden en matière d'IA, qui étaient peu enc
Un organisme à but non lucratif s'appuie sur des agents d'intelligence artificielle pour stimuler la collecte de fonds à des fins caritatives
Alors que les grandes entreprises technologiques promeuvent les "agents" d'IA comme des stimulants de la productivité pour les entreprises, une organisation à but non lucratif démontre leur potentiel
Les plus grands laboratoires d'IA avertissent que l'humanité est en train de perdre le contrôle de la compréhension des systèmes d'IA
Dans une démonstration d'unité sans précédent, des chercheurs d'OpenAI, de Google DeepMind, d'Anthropic et de Meta ont mis de côté leurs divergences pour lancer un avertissement collectif sur le dével
commentaires (26)
0/200
OwenLewis
24 août 2025 15:01:19 UTC+02:00
Llama 4 sounds like a beast! That 10M token context window is wild—imagine analyzing entire books in one go. But can Meta keep up with DeepSeek’s efficiency? Excited for Behemoth, though! 🚀
0
RogerSanchez
24 avril 2025 21:53:44 UTC+02:00
Llama 4 정말 대단해요! 긴 문맥 스카우트와 마버릭 모델은 놀랍네요. 2T 파라미터의 괴물이 나올 걸 기대하고 있어요. 다만, 설정하는 게 좀 복잡해요. 그래도, AI의 미래가 밝아 보이네요! 🚀
0
WillieHernández
24 avril 2025 02:21:23 UTC+02:00
Llama 4はすごい!長いコンテキストのスカウトやマーベリックモデルは驚異的。2Tパラメータのビーストが出るのを待ちきれない。ただ、設定が少し大変かな。でも、これでAIの未来は明るいね!🚀
0
GregoryWilson
22 avril 2025 19:23:39 UTC+02:00
MetaのLlama 4は最高ですね!長いコンテキストをスムーズに処理できるのが本当に便利。マーベリックモデルも面白いけど、2Tパラメータのモデルが来るのが楽しみです!🤩✨
0
BrianThomas
22 avril 2025 08:27:50 UTC+02:00
O Llama 4 da Meta é incrível! A função de contexto longo é uma mão na roda para minhas pesquisas. Os modelos Maverick também são legais, mas estou ansioso pelo modelo de 2T parâmetros. Mal posso esperar para ver o que ele pode fazer! 🤯🚀
0
JohnGarcia
22 avril 2025 05:11:00 UTC+02:00
Acabo de enterarme de Llama 4 de Meta y ¡es una locura! ¡2T parámetros! Espero que no sea solo hype, pero si cumple con las expectativas, va a ser increíble. ¿Alguien ya lo ha probado? ¡Quiero saber más! 😎
0
En janvier 2025, le monde de l'IA a été secoué lorsque DeepSeek, une startup chinoise d'IA relativement inconnue, a lancé un défi avec son modèle de raisonnement linguistique open-source révolutionnaire, DeepSeek R1. Ce modèle a non seulement surpassé des géants comme Meta, mais l'a fait à une fraction du coût — on parle de quelques millions de dollars seulement. C'est le genre de budget que Meta pourrait dépenser pour seulement quelques chefs d'équipe IA ! Cette nouvelle a mis Meta dans une certaine frénésie, d'autant plus que leur dernier modèle Llama, version 3.3, sorti juste le mois précédent, semblait déjà un peu dépassé.
Aujourd'hui, le fondateur et PDG de Meta, Mark Zuckerberg, a pris la parole sur Instagram pour annoncer le lancement de la nouvelle série Llama 4. Cette série comprend le Llama 4 Maverick avec 400 milliards de paramètres et le Llama 4 Scout avec 109 milliards de paramètres, tous deux disponibles pour les développeurs à télécharger et à expérimenter immédiatement sur llama.com et Hugging Face. Il y a aussi un aperçu d'un modèle colossal de 2 trillions de paramètres, Llama 4 Behemoth, encore en entraînement, sans date de sortie prévue.
Capacités multimodales et contextes longs
L'une des caractéristiques remarquables de ces nouveaux modèles est leur nature multimodale. Ils ne se limitent pas au texte ; ils peuvent également gérer la vidéo et les images. Et ils disposent de fenêtres de contexte incroyablement longues — 1 million de jetons pour Maverick et pas moins de 10 millions pour Scout. Pour mettre cela en perspective, cela équivaut à traiter jusqu'à 1 500 et 15 000 pages de texte d'un coup ! Imaginez les possibilités pour des domaines comme la médecine, la science ou la littérature où il faut traiter et générer d'énormes quantités d'informations.
Architecture de mélange d'experts
Les trois modèles Llama 4 utilisent l'architecture de "mélange d'experts (MoE)", une technique qui fait des vagues, popularisée par des entreprises comme OpenAI et Mistral. Cette approche combine plusieurs modèles plus petits et spécialisés en un seul modèle plus grand et plus efficace. Chaque modèle Llama 4 est un mélange de 128 experts différents, ce qui signifie que seul l'expert nécessaire et un partagé gèrent chaque jeton, rendant les modèles plus économiques et plus rapides à exécuter. Meta se vante que Llama 4 Maverick peut être exécuté sur un seul hôte Nvidia H100 DGX, facilitant ainsi le déploiement.
Économique et accessible
Meta mise tout sur l'accessibilité de ces modèles. Scout et Maverick sont disponibles pour l'auto-hébergement, et ils ont même partagé des estimations de coûts alléchantes. Par exemple, le coût d'inférence pour Llama 4 Maverick se situe entre 0,19 $ et 0,49 $ par million de jetons, ce qui est une aubaine par rapport à d'autres modèles propriétaires comme GPT-4o. Et si vous souhaitez utiliser ces modèles via un fournisseur de cloud, Groq a déjà proposé des prix compétitifs.
Raisonnement amélioré et MetaP
Ces modèles sont conçus pour le raisonnement, le codage et la résolution de problèmes. Meta a utilisé des techniques astucieuses pendant l'entraînement pour renforcer ces capacités, comme supprimer les invites faciles et utiliser un apprentissage par renforcement continu avec des invites de plus en plus difficiles. Ils ont également introduit MetaP, une nouvelle technique qui permet de définir des hyperparamètres sur un modèle et de les appliquer à d'autres, économisant ainsi du temps et de l'argent. C'est un changement majeur, surtout pour entraîner des monstres comme Behemoth, qui utilise 32 000 GPU et traite plus de 30 trillions de jetons.
Performance et comparaisons
Alors, comment ces modèles se comparent-ils ? Zuckerberg a été clair sur sa vision de l'IA open-source en tête de file, et Llama 4 est un grand pas dans cette direction. Bien qu'ils ne battent pas de nouveaux records de performance à tous les niveaux, ils sont certainement parmi les meilleurs de leur catégorie. Par exemple, Llama 4 Behemoth surpasse certains poids lourds sur certains benchmarks, bien qu'il soit encore à la traîne derrière DeepSeek R1 et la série o1 d'OpenAI dans d'autres.
Llama 4 Behemoth
- Surpasse GPT-4.5, Gemini 2.0 Pro et Claude Sonnet 3.7 sur MATH-500 (95,0), GPQA Diamond (73,7) et MMLU Pro (82,2)
Llama 4 Maverick
- Dépasse GPT-4o et Gemini 2.0 Flash sur la plupart des benchmarks de raisonnement multimodal comme ChartQA, DocVQA, MathVista et MMMU
- Compétitif avec DeepSeek v3.1 tout en utilisant moins de la moitié des paramètres actifs
- Scores de benchmark : ChartQA (90,0), DocVQA (94,4), MMLU Pro (80,5)
Llama 4 Scout
- Égale ou surpasse des modèles comme Mistral 3.1, Gemini 2.0 Flash-Lite et Gemma 3 sur DocVQA (94,4), MMLU Pro (74,3) et MathVista (70,7)
- Longueur de contexte inégalée de 10 millions de jetons — idéale pour les longs documents et les bases de code
Comparaison avec DeepSeek R1
Dans les grandes ligues, Llama 4 Behemoth tient bon mais ne détrône pas tout à fait DeepSeek R1 ou la série o1 d'OpenAI. Il est légèrement en retard sur MATH-500 et MMLU mais en avance sur GPQA Diamond. Pourtant, il est clair que Llama 4 est un concurrent sérieux dans le domaine du raisonnement.
Benchmark | Llama 4 Behemoth | DeepSeek R1 | OpenAI o1-1217 |
---|---|---|---|
MATH-500 | 95,0 | 97,3 | 96,4 |
GPQA Diamond | 73,7 | 71,5 | 75,7 |
MMLU | 82,2 | 90,8 | 91,8 |
Sécurité et neutralité politique
Meta n'a pas non plus oublié la sécurité. Ils ont introduit des outils comme Llama Guard, Prompt Guard et CyberSecEval pour maintenir les choses dans les normes. Et ils insistent sur la réduction des biais politiques, visant une approche plus équilibrée, surtout après le soutien noté de Zuckerberg pour la politique républicaine après l'élection de 2024.
L'avenir avec Llama 4
Avec Llama 4, Meta repousse les limites de l'efficacité, de l'ouverture et de la performance en IA. Que vous cherchiez à construire des assistants IA de niveau entreprise ou à plonger dans la recherche en IA, Llama 4 offre des options puissantes et flexibles qui privilégient le raisonnement. Il est clair que Meta s'engage à rendre l'IA plus accessible et impactante pour tous.




Llama 4 sounds like a beast! That 10M token context window is wild—imagine analyzing entire books in one go. But can Meta keep up with DeepSeek’s efficiency? Excited for Behemoth, though! 🚀




Llama 4 정말 대단해요! 긴 문맥 스카우트와 마버릭 모델은 놀랍네요. 2T 파라미터의 괴물이 나올 걸 기대하고 있어요. 다만, 설정하는 게 좀 복잡해요. 그래도, AI의 미래가 밝아 보이네요! 🚀




Llama 4はすごい!長いコンテキストのスカウトやマーベリックモデルは驚異的。2Tパラメータのビーストが出るのを待ちきれない。ただ、設定が少し大変かな。でも、これでAIの未来は明るいね!🚀




MetaのLlama 4は最高ですね!長いコンテキストをスムーズに処理できるのが本当に便利。マーベリックモデルも面白いけど、2Tパラメータのモデルが来るのが楽しみです!🤩✨




O Llama 4 da Meta é incrível! A função de contexto longo é uma mão na roda para minhas pesquisas. Os modelos Maverick também são legais, mas estou ansioso pelo modelo de 2T parâmetros. Mal posso esperar para ver o que ele pode fazer! 🤯🚀




Acabo de enterarme de Llama 4 de Meta y ¡es una locura! ¡2T parámetros! Espero que no sea solo hype, pero si cumple con las expectativas, va a ser increíble. ¿Alguien ya lo ha probado? ¡Quiero saber más! 😎












