opción
Hogar
Noticias
Meta -se ve a la Llama 4 con un largo contexto Scout y Maverick Models, 2t Parameter Behemoth próximamente!

Meta -se ve a la Llama 4 con un largo contexto Scout y Maverick Models, 2t Parameter Behemoth próximamente!

16 de abril de 2025
89

En enero de 2025, el mundo de la IA se vio sacudido cuando una startup china de IA relativamente desconocida, DeepSeek, lanzó un desafío con su modelo de razonamiento de lenguaje de código abierto innovador, DeepSeek R1. Este modelo no solo superó a gigantes como Meta, sino que lo hizo con una fracción del costo, se rumorea que con solo unos pocos millones de dólares. ¡Ese es el tipo de presupuesto que Meta podría gastar en solo un par de sus líderes de equipo de IA! Esta noticia puso a Meta en un frenesí, especialmente porque su último modelo Llama, versión 3.3, lanzado solo un mes antes, ya parecía algo obsoleto.

Avanzando hasta hoy, el fundador y CEO de Meta, Mark Zuckerberg, ha acudido a Instagram para anunciar el lanzamiento de la nueva serie Llama 4. Esta serie incluye el Llama 4 Maverick de 400 mil millones de parámetros y el Llama 4 Scout de 109 mil millones de parámetros, ambos disponibles para que los desarrolladores los descarguen y comiencen a experimentar de inmediato en llama.com y Hugging Face. También hay un adelanto de un modelo colosal de 2 billones de parámetros, Llama 4 Behemoth, aún en entrenamiento, sin fecha de lanzamiento a la vista.

Capacidades Multimodales y de Contexto Largo

Una de las características destacadas de estos nuevos modelos es su naturaleza multimodal. No se limitan al texto; también pueden manejar video e imágenes. Y vienen con ventanas de contexto increíblemente largas: 1 millón de tokens para Maverick y un asombroso 10 millones para Scout. Para ponerlo en perspectiva, ¡eso es como manejar hasta 1,500 y 15,000 páginas de texto de una vez! Imagina las posibilidades para campos como la medicina, la ciencia o la literatura, donde necesitas procesar y generar grandes cantidades de información.

Arquitectura de Mezcla de Expertos

Los tres modelos Llama 4 emplean la arquitectura de "mezcla de expertos (MoE)", una técnica que ha estado causando sensación, popularizada por empresas como OpenAI y Mistral. Este enfoque combina varios modelos más pequeños y especializados en un modelo más grande y eficiente. Cada modelo Llama 4 es una mezcla de 128 expertos diferentes, lo que significa que solo el experto necesario y uno compartido manejan cada token, haciendo que los modelos sean más rentables y rápidos de ejecutar. Meta presume que Llama 4 Maverick puede ejecutarse en un solo host Nvidia H100 DGX, lo que facilita su implementación.

Rentable y Accesible

Meta se enfoca en hacer estos modelos accesibles. Tanto Scout como Maverick están disponibles para autoalojamiento, e incluso han compartido algunas estimaciones de costos atractivas. Por ejemplo, el costo de inferencia para Llama 4 Maverick está entre $0.19 y $0.49 por millón de tokens, lo cual es una ganga en comparación con otros modelos propietarios como GPT-4o. Y si estás interesado en usar estos modelos a través de un proveedor de nube, Groq ya ha ofrecido precios competitivos.

Razonamiento Mejorado y MetaP

Estos modelos están diseñados con el razonamiento, la codificación y la resolución de problemas en mente. Meta ha utilizado algunas técnicas ingeniosas durante el entrenamiento para potenciar estas capacidades, como eliminar prompts fáciles y usar aprendizaje por refuerzo continuo con prompts cada vez más difíciles. También han presentado MetaP, una nueva técnica que permite establecer hiperparámetros en un modelo y aplicarlos a otros, ahorrando tiempo y dinero. Es un cambio radical, especialmente para entrenar monstruos como Behemoth, que utiliza 32K GPUs y procesa más de 30 billones de tokens.

Rendimiento y Comparaciones

Entonces, ¿cómo se comparan estos modelos? Zuckerberg ha sido claro sobre su visión de que la IA de código abierto lidere el camino, y Llama 4 es un gran paso en esa dirección. Aunque no establecen nuevos récords de rendimiento en todos los ámbitos, ciertamente están cerca de la cima de su clase. Por ejemplo, Llama 4 Behemoth supera a algunos pesos pesados en ciertos puntos de referencia, aunque aún está intentando alcanzar a DeepSeek R1 y la serie o1 de OpenAI en otros.

Llama 4 Behemoth

  • Supera a GPT-4.5, Gemini 2.0 Pro y Claude Sonnet 3.7 en MATH-500 (95.0), GPQA Diamond (73.7) y MMLU Pro (82.2)

Gráfico de Rendimiento de Llama 4 Behemoth

Llama 4 Maverick

  • Supera a GPT-4o y Gemini 2.0 Flash en la mayoría de los puntos de referencia de razonamiento multimodal como ChartQA, DocVQA, MathVista y MMMU
  • Competitivo con DeepSeek v3.1 mientras usa menos de la mitad de los parámetros activos
  • Puntuaciones de referencia: ChartQA (90.0), DocVQA (94.4), MMLU Pro (80.5)

Gráfico de Rendimiento de Llama 4 Maverick

Llama 4 Scout

  • Iguala o supera a modelos como Mistral 3.1, Gemini 2.0 Flash-Lite y Gemma 3 en DocVQA (94.4), MMLU Pro (74.3) y MathVista (70.7)
  • Longitud de contexto de 10M de tokens sin igual, ideal para documentos largos y bases de código

Gráfico de Rendimiento de Llama 4 Scout

Comparación con DeepSeek R1

Cuando se trata de las grandes ligas, Llama 4 Behemoth se mantiene firme pero no llega a destronar a DeepSeek R1 ni a la serie o1 de OpenAI. Está ligeramente por detrás en MATH-500 y MMLU, pero adelante en GPQA Diamond. Aun así, está claro que Llama 4 es un contendiente fuerte en el espacio del razonamiento.

Punto de ReferenciaLlama 4 BehemothDeepSeek R1OpenAI o1-1217
MATH-50095.097.396.4
GPQA Diamond73.771.575.7
MMLU82.290.891.8

Seguridad y Neutralidad Política

Meta tampoco ha olvidado la seguridad. Han introducido herramientas como Llama Guard, Prompt Guard y CyberSecEval para mantener todo en orden. Y están haciendo un esfuerzo por reducir el sesgo político, buscando un enfoque más equilibrado, especialmente después del apoyo señalado de Zuckerberg a la política republicana tras las elecciones de 2024.

El Futuro con Llama 4

Con Llama 4, Meta está ampliando los límites de la eficiencia, la apertura y el rendimiento en la IA. Ya sea que busques construir asistentes de IA de nivel empresarial o sumergirte profundamente en la investigación de IA, Llama 4 ofrece opciones poderosas y flexibles que priorizan el razonamiento. Está claro que Meta está comprometido a hacer que la IA sea más accesible e impactante para todos.

Artículo relacionado
Google Presenta Modelos de IA Gemini 2.5 Listos para Producción para Competir con OpenAI en el Mercado Empresarial Google Presenta Modelos de IA Gemini 2.5 Listos para Producción para Competir con OpenAI en el Mercado Empresarial Google intensificó su estrategia de IA el lunes, lanzando sus avanzados modelos Gemini 2.5 para uso empresarial e introduciendo una variante rentable para competir en precio y rendimiento.La empresa p
Meta Ofrece Altos Salarios para Talento en IA, Niega Bonos de Firma de $100M Meta Ofrece Altos Salarios para Talento en IA, Niega Bonos de Firma de $100M Meta está atrayendo a investigadores de IA a su nuevo laboratorio de superinteligencia con paquetes de compensación multimillonarios sustanciales. Sin embargo, las afirmaciones de bonos de firma de $1
Meta Mejora la Seguridad de la IA con Herramientas Avanzadas de Llama Meta Mejora la Seguridad de la IA con Herramientas Avanzadas de Llama Meta ha lanzado nuevas herramientas de seguridad de Llama para fortalecer el desarrollo de la IA y proteger contra amenazas emergentes.Estas herramientas de seguridad mejoradas del modelo de IA Llama
comentario (25)
0/200
RogerSanchez
RogerSanchez 24 de abril de 2025 21:53:44 GMT+02:00

Llama 4 정말 대단해요! 긴 문맥 스카우트와 마버릭 모델은 놀랍네요. 2T 파라미터의 괴물이 나올 걸 기대하고 있어요. 다만, 설정하는 게 좀 복잡해요. 그래도, AI의 미래가 밝아 보이네요! 🚀

WillieHernández
WillieHernández 24 de abril de 2025 02:21:23 GMT+02:00

Llama 4はすごい!長いコンテキストのスカウトやマーベリックモデルは驚異的。2Tパラメータのビーストが出るのを待ちきれない。ただ、設定が少し大変かな。でも、これでAIの未来は明るいね!🚀

GregoryWilson
GregoryWilson 22 de abril de 2025 19:23:39 GMT+02:00

MetaのLlama 4は最高ですね!長いコンテキストをスムーズに処理できるのが本当に便利。マーベリックモデルも面白いけど、2Tパラメータのモデルが来るのが楽しみです!🤩✨

BrianThomas
BrianThomas 22 de abril de 2025 08:27:50 GMT+02:00

O Llama 4 da Meta é incrível! A função de contexto longo é uma mão na roda para minhas pesquisas. Os modelos Maverick também são legais, mas estou ansioso pelo modelo de 2T parâmetros. Mal posso esperar para ver o que ele pode fazer! 🤯🚀

JohnGarcia
JohnGarcia 22 de abril de 2025 05:11:00 GMT+02:00

Acabo de enterarme de Llama 4 de Meta y ¡es una locura! ¡2T parámetros! Espero que no sea solo hype, pero si cumple con las expectativas, va a ser increíble. ¿Alguien ya lo ha probado? ¡Quiero saber más! 😎

NicholasLewis
NicholasLewis 21 de abril de 2025 15:31:17 GMT+02:00

Acabei de ouvir sobre o Llama 4 da Meta e parece insano! 2T parâmetros? Isso é um monstro! Mal posso esperar para ver como se compara ao DeepSeek R1. Espero que não seja só hype, mas se corresponder ao burburinho, vai ser 🔥! Alguém já testou?

Volver arriba
OR