

Meta revela o lhama 4 com modelos de escoteiros e maverick de longa data, 2T parâmetros gigantes em breve!
16 de Abril de 2025
HenryWalker
59
Em janeiro de 2025, o mundo da IA foi abalado quando uma startup de IA chinesa relativamente desconhecida, Deepseek, jogou a luva com seu modelo inovador de raciocínio de linguagem de código aberto, Deepseek R1. Esse modelo não apenas superou os gostos como a Meta, mas o fez por uma fração do custo - rumorada para chegar a alguns milhões de dólares. Esse é o tipo de meta do orçamento que pode gastar apenas alguns de seus líderes de equipe de IA! Esta notícia enviou Meta para um frenesi, especialmente porque o seu mais recente modelo de lhama, a versão 3.3, lançado exatamente no mês anterior, já estava parecendo um pouco datado.
Avançando hoje, e o fundador e CEO da Meta, Mark Zuckerberg, foi ao Instagram para anunciar o lançamento da nova série Llama 4. Esta série inclui a llama 4 de 400 bilhões de parâmetros, Maverick e a Llama 4 Scout de 109 bilhões de parâmetro, ambos disponíveis para os desenvolvedores baixarem e começarem a mexer imediatamente no llama.com e abraçar o rosto. Há também uma prévia de um modelo de parâmetro colossal de 2 trilhões, Llama 4 Behemoth, ainda em treinamento, sem data de lançamento à vista.
Recursos multimodais e de longo prazo
Um dos recursos de destaque desses novos modelos é sua natureza multimodal. Eles não são apenas sobre texto; Eles também podem lidar com vídeos e imagens. E eles vêm com janelas de contexto incrivelmente longas - 1 milhão de tokens para Maverick e 10 milhões para escoteiros. Para colocar isso em perspectiva, é como lidar com 1.500 e 15.000 páginas de texto de uma só vez! Imagine as possibilidades de campos como medicina, ciência ou literatura, onde você precisa processar e gerar vastas quantidades de informação.
Arquitetura da mistura de especialistas
Todos os três modelos LLAMA 4 empregam a arquitetura "Mistura de Expertos (MOE)", uma técnica que está fazendo ondas, popularizada por empresas como OpenAI e Mistral. Essa abordagem combina vários modelos menores e especializados em um modelo maior e mais eficiente. Cada modelo LLAMA 4 é uma mistura de 128 especialistas diferentes, o que significa apenas o especialista necessário e um manuseio compartilhado, tornando os modelos mais econômicos e mais rápidos para executar. Meta se orgulha de que o lhama 4 Maverick pode ser executado em um único host NVIDIA H100 DGX, tornando a implantação uma brisa.
Econômico e acessível
Meta é tudo sobre tornar esses modelos acessíveis. Scout e Maverick estão disponíveis para auto-hospedagem e até compartilharam algumas estimativas atraentes de custos. Por exemplo, o custo de inferência para o llama 4 Maverick está entre US $ 0,19 e US $ 0,49 por milhão de tokens, o que é um roubo em comparação com outros modelos proprietários como o GPT-4O. E se você estiver interessado em usar esses modelos por meio de um provedor de nuvem, o Groq já se intensificou com preços competitivos.
Raciocínio aprimorado e metap
Esses modelos são construídos com raciocínio, codificação e solução de problemas em mente. A Meta's usou algumas técnicas inteligentes durante o treinamento para aumentar esses recursos, como remover instruções fáceis e usar o aprendizado de reforço contínuo com instruções cada vez mais difíceis. Eles também introduziram o Metap, uma nova técnica que permite definir hiperparâmetros em um modelo e aplicá -los a outros, economizando tempo e dinheiro. É uma mudança de jogo, especialmente para treinar monstros como o Behemoth, que usa 32k GPUs e processa mais de 30 trilhões de tokens.
Desempenho e comparações
Então, como esses modelos se comparam? Zuckerberg tem sido claro sobre sua visão de IA de código aberto liderando a acusação, e Llama 4 é um grande passo nessa direção. Embora eles não possam definir novos registros de desempenho em geral, eles certamente estão perto do topo de sua classe. Por exemplo, o gigante Llama 4 supera alguns rebatedores pesados em certos parâmetros de referência, embora ainda esteja se recuperando com o Deepseek R1 e a série O1 OpenAi em outros.
Lhama 4 gigante
- Supera-se GPT-4.5, Gemini 2.0 Pro e Claude Sonnet 3.7 em Math-500 (95,0), GPQA Diamond (73.7) e MMLU Pro (82.2)

Lhama 4 Maverick
- Beats GPT-4O e Gemini 2.0 Flash na maioria dos benchmarks de raciocínio multimodal como ChartQa, Docvqa, Mathvista e MMMU
- Competitivo com Deepseek v3.1 enquanto estiver usando menos da metade dos parâmetros ativos
- Pontuações de benchmark: ChartQa (90.0), Docvqa (94.4), MMLU Pro (80,5)

LLAMA 4 Scout
- Matches ou supera modelos como Mistral 3.1, Gemini 2.0 Flash-Lite e Gemma 3 no Docvqa (94.4), MMLU Pro (74.3) e Mathvista (70.7)
- Comprimento de contexto de token de 10m incomparável - ideal para documentos longos e bases de código

Comparando com o Deepseek R1
Quando se trata de grandes ligas, o LLama 4 Behemoth se mantém, mas não destrona o Deepseek R1 ou a série O1 OpenAi. Está um pouco atrás do Math-500 e MMLU, mas à frente no GPQA Diamond. Ainda assim, está claro que Llama 4 é um forte candidato no espaço de raciocínio.
Benchmark Lhama 4 gigante Deepseek R1 Openai O1-1217 Math-500 95.0 97.3 96.4 Diamante GPQA 73.7 71.5 75.7 Mmlu 82.2 90.8 91.8
Segurança e neutralidade política
Meta também não se esqueceu de segurança. Eles introduziram ferramentas como guarda de lhama, guarda pronta e ciberseira para manter as coisas em alta. E eles estão fazendo questão de reduzir o viés político, buscando uma abordagem mais equilibrada, especialmente após o mencionado apoio de Zuckerberg à eleição da política republicana pós-2024.
O futuro com llama 4
Com o LLAMA 4, a Meta está ultrapassando os limites da eficiência, abertura e desempenho na IA. Se você deseja criar assistentes de IA em nível corporativo ou mergulhar profundamente na pesquisa da IA, o LLAMA 4 oferece opções poderosas e flexíveis que priorizam o raciocínio. É claro que a Meta está comprometida em tornar a IA mais acessível e impactante para todos.
Artigo relacionado
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN
The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
GAIA Introduces New Benchmark in Quest for True Intelligence Beyond ARC-AGI
Intelligence is everywhere, yet gauging it accurately feels like trying to catch a cloud with your bare hands. We use tests and benchmarks, like college entrance exams, to get a rough idea. Each year, students cram for these tests, sometimes even scoring a perfect 100%. But does that perfect score m
How we’re using AI to help cities tackle extreme heat
It's looking like 2024 might just break the record for the hottest year yet, surpassing 2023. This trend is particularly tough on folks living in urban heat islands—those spots in cities where concrete and asphalt soak up the sun's rays and then radiate the heat right back out. These areas can warm
Comentários (20)
0/200
TimothyEvans
19 de Abril de 2025 à17 04:25:17 GMT
Just heard about Meta's Llama 4 and it sounds insane! 2T parameters? That's a monster! Can't wait to see how it performs compared to DeepSeek R1. Hope it's not just hype, but if it lives up to the buzz, it's gonna be 🔥! Anyone tried it yet?
0
EricJohnson
17 de Abril de 2025 à32 12:34:32 GMT
メタのラマ4、2Tパラメータって聞いてびっくり!ディープシークR1と比べてどんな感じなのか楽しみ。期待が大きいだけに、実際に使ってみないとわからないけど、期待してるよ!誰かもう試した?😊
0
JohnGarcia
22 de Abril de 2025 à0 03:11:00 GMT
Acabo de enterarme de Llama 4 de Meta y ¡es una locura! ¡2T parámetros! Espero que no sea solo hype, pero si cumple con las expectativas, va a ser increíble. ¿Alguien ya lo ha probado? ¡Quiero saber más! 😎
0
NicholasLewis
21 de Abril de 2025 à17 13:31:17 GMT
Acabei de ouvir sobre o Llama 4 da Meta e parece insano! 2T parâmetros? Isso é um monstro! Mal posso esperar para ver como se compara ao DeepSeek R1. Espero que não seja só hype, mas se corresponder ao burburinho, vai ser 🔥! Alguém já testou?
0
PaulGonzalez
21 de Abril de 2025 à18 10:16:18 GMT
Gerade von Meta's Llama 4 gehört und es klingt verrückt! 2T Parameter? Das ist ein Riese! Kann es kaum erwarten zu sehen, wie es sich im Vergleich zu DeepSeek R1 schlägt. Hoffentlich ist es nicht nur Hype, aber wenn es dem Rummel gerecht wird, wird es 🔥! Jemand schon ausprobiert?
0
IsabellaDavis
18 de Abril de 2025 à20 12:35:20 GMT
Meta's Llama 4 is a beast! The long context scout feature is a game-changer for my research. The Maverick models are cool too, but I'm really waiting for that 2T parameter model. Can't wait to see what it can do! 🤓🚀
0






Em janeiro de 2025, o mundo da IA foi abalado quando uma startup de IA chinesa relativamente desconhecida, Deepseek, jogou a luva com seu modelo inovador de raciocínio de linguagem de código aberto, Deepseek R1. Esse modelo não apenas superou os gostos como a Meta, mas o fez por uma fração do custo - rumorada para chegar a alguns milhões de dólares. Esse é o tipo de meta do orçamento que pode gastar apenas alguns de seus líderes de equipe de IA! Esta notícia enviou Meta para um frenesi, especialmente porque o seu mais recente modelo de lhama, a versão 3.3, lançado exatamente no mês anterior, já estava parecendo um pouco datado.
Avançando hoje, e o fundador e CEO da Meta, Mark Zuckerberg, foi ao Instagram para anunciar o lançamento da nova série Llama 4. Esta série inclui a llama 4 de 400 bilhões de parâmetros, Maverick e a Llama 4 Scout de 109 bilhões de parâmetro, ambos disponíveis para os desenvolvedores baixarem e começarem a mexer imediatamente no llama.com e abraçar o rosto. Há também uma prévia de um modelo de parâmetro colossal de 2 trilhões, Llama 4 Behemoth, ainda em treinamento, sem data de lançamento à vista.
Recursos multimodais e de longo prazo
Um dos recursos de destaque desses novos modelos é sua natureza multimodal. Eles não são apenas sobre texto; Eles também podem lidar com vídeos e imagens. E eles vêm com janelas de contexto incrivelmente longas - 1 milhão de tokens para Maverick e 10 milhões para escoteiros. Para colocar isso em perspectiva, é como lidar com 1.500 e 15.000 páginas de texto de uma só vez! Imagine as possibilidades de campos como medicina, ciência ou literatura, onde você precisa processar e gerar vastas quantidades de informação.
Arquitetura da mistura de especialistas
Todos os três modelos LLAMA 4 empregam a arquitetura "Mistura de Expertos (MOE)", uma técnica que está fazendo ondas, popularizada por empresas como OpenAI e Mistral. Essa abordagem combina vários modelos menores e especializados em um modelo maior e mais eficiente. Cada modelo LLAMA 4 é uma mistura de 128 especialistas diferentes, o que significa apenas o especialista necessário e um manuseio compartilhado, tornando os modelos mais econômicos e mais rápidos para executar. Meta se orgulha de que o lhama 4 Maverick pode ser executado em um único host NVIDIA H100 DGX, tornando a implantação uma brisa.
Econômico e acessível
Meta é tudo sobre tornar esses modelos acessíveis. Scout e Maverick estão disponíveis para auto-hospedagem e até compartilharam algumas estimativas atraentes de custos. Por exemplo, o custo de inferência para o llama 4 Maverick está entre US $ 0,19 e US $ 0,49 por milhão de tokens, o que é um roubo em comparação com outros modelos proprietários como o GPT-4O. E se você estiver interessado em usar esses modelos por meio de um provedor de nuvem, o Groq já se intensificou com preços competitivos.
Raciocínio aprimorado e metap
Esses modelos são construídos com raciocínio, codificação e solução de problemas em mente. A Meta's usou algumas técnicas inteligentes durante o treinamento para aumentar esses recursos, como remover instruções fáceis e usar o aprendizado de reforço contínuo com instruções cada vez mais difíceis. Eles também introduziram o Metap, uma nova técnica que permite definir hiperparâmetros em um modelo e aplicá -los a outros, economizando tempo e dinheiro. É uma mudança de jogo, especialmente para treinar monstros como o Behemoth, que usa 32k GPUs e processa mais de 30 trilhões de tokens.
Desempenho e comparações
Então, como esses modelos se comparam? Zuckerberg tem sido claro sobre sua visão de IA de código aberto liderando a acusação, e Llama 4 é um grande passo nessa direção. Embora eles não possam definir novos registros de desempenho em geral, eles certamente estão perto do topo de sua classe. Por exemplo, o gigante Llama 4 supera alguns rebatedores pesados em certos parâmetros de referência, embora ainda esteja se recuperando com o Deepseek R1 e a série O1 OpenAi em outros.
Lhama 4 gigante
- Supera-se GPT-4.5, Gemini 2.0 Pro e Claude Sonnet 3.7 em Math-500 (95,0), GPQA Diamond (73.7) e MMLU Pro (82.2)
Lhama 4 Maverick
- Beats GPT-4O e Gemini 2.0 Flash na maioria dos benchmarks de raciocínio multimodal como ChartQa, Docvqa, Mathvista e MMMU
- Competitivo com Deepseek v3.1 enquanto estiver usando menos da metade dos parâmetros ativos
- Pontuações de benchmark: ChartQa (90.0), Docvqa (94.4), MMLU Pro (80,5)
LLAMA 4 Scout
- Matches ou supera modelos como Mistral 3.1, Gemini 2.0 Flash-Lite e Gemma 3 no Docvqa (94.4), MMLU Pro (74.3) e Mathvista (70.7)
- Comprimento de contexto de token de 10m incomparável - ideal para documentos longos e bases de código
Comparando com o Deepseek R1
Quando se trata de grandes ligas, o LLama 4 Behemoth se mantém, mas não destrona o Deepseek R1 ou a série O1 OpenAi. Está um pouco atrás do Math-500 e MMLU, mas à frente no GPQA Diamond. Ainda assim, está claro que Llama 4 é um forte candidato no espaço de raciocínio.
Benchmark | Lhama 4 gigante | Deepseek R1 | Openai O1-1217 |
---|---|---|---|
Math-500 | 95.0 | 97.3 | 96.4 |
Diamante GPQA | 73.7 | 71.5 | 75.7 |
Mmlu | 82.2 | 90.8 | 91.8 |
Segurança e neutralidade política
Meta também não se esqueceu de segurança. Eles introduziram ferramentas como guarda de lhama, guarda pronta e ciberseira para manter as coisas em alta. E eles estão fazendo questão de reduzir o viés político, buscando uma abordagem mais equilibrada, especialmente após o mencionado apoio de Zuckerberg à eleição da política republicana pós-2024.
O futuro com llama 4
Com o LLAMA 4, a Meta está ultrapassando os limites da eficiência, abertura e desempenho na IA. Se você deseja criar assistentes de IA em nível corporativo ou mergulhar profundamente na pesquisa da IA, o LLAMA 4 oferece opções poderosas e flexíveis que priorizam o raciocínio. É claro que a Meta está comprometida em tornar a IA mais acessível e impactante para todos.




Just heard about Meta's Llama 4 and it sounds insane! 2T parameters? That's a monster! Can't wait to see how it performs compared to DeepSeek R1. Hope it's not just hype, but if it lives up to the buzz, it's gonna be 🔥! Anyone tried it yet?




メタのラマ4、2Tパラメータって聞いてびっくり!ディープシークR1と比べてどんな感じなのか楽しみ。期待が大きいだけに、実際に使ってみないとわからないけど、期待してるよ!誰かもう試した?😊




Acabo de enterarme de Llama 4 de Meta y ¡es una locura! ¡2T parámetros! Espero que no sea solo hype, pero si cumple con las expectativas, va a ser increíble. ¿Alguien ya lo ha probado? ¡Quiero saber más! 😎




Acabei de ouvir sobre o Llama 4 da Meta e parece insano! 2T parâmetros? Isso é um monstro! Mal posso esperar para ver como se compara ao DeepSeek R1. Espero que não seja só hype, mas se corresponder ao burburinho, vai ser 🔥! Alguém já testou?




Gerade von Meta's Llama 4 gehört und es klingt verrückt! 2T Parameter? Das ist ein Riese! Kann es kaum erwarten zu sehen, wie es sich im Vergleich zu DeepSeek R1 schlägt. Hoffentlich ist es nicht nur Hype, aber wenn es dem Rummel gerecht wird, wird es 🔥! Jemand schon ausprobiert?




Meta's Llama 4 is a beast! The long context scout feature is a game-changer for my research. The Maverick models are cool too, but I'm really waiting for that 2T parameter model. Can't wait to see what it can do! 🤓🚀












