вариант
Дом Новости Meta представляет Llama 4 с длинным контекстом и моделями Maverick, 2T Parameter Bhemoth скоро появится!

Meta представляет Llama 4 с длинным контекстом и моделями Maverick, 2T Parameter Bhemoth скоро появится!

Дата выпуска Дата выпуска 16 апреля 2025 г.
Автор Автор HenryWalker
виды виды 59

Еще в январе 2025 года мир ИИ был потрясен, когда относительно неизвестный китайский стартап ИИ, Deepseek, бросил рукавиц своей новаторской моделью языковой мышления с открытым исходным кодом, Deepseek R1. Эта модель не только превзошла такие, как Meta, но и сделала это за долю от стоимости - оборотня, чтобы составлять всего несколько миллионов долларов. Такая бюджетная мета может потратить только на пару лидеров команды ИИ! Эта новость отправила Meta в немного безумия, особенно после того, как их последняя модель Llama, версия 3.3, выпущенная всего месяц назад, уже немного устарела.

Перенесемся на сегодня, и основатель и генеральный директор Meta Марк Цукерберг отправился в Instagram, чтобы объявить о запуске новой серии Llama 4. Эта серия включает в себя 400 миллиардов параметров Llama 4 Maverick и параметр 109 миллиардов Llama 4, оба доступны для разработчиков, чтобы загрузить и начать возиться сразу на llama.com и обнимающееся лицо. Также есть краткий обзор колоссальной модели параметров 2 триллионов, Llama 4 Behemoth, все еще на тренировке, без даты выпуска.

Мультимодальные и длительные возможности

Одной из выдающихся особенностей этих новых моделей является их мультимодальная природа. Они не только о тексте; Они также могут справиться с видео и образами. И они поставляются с невероятно длинными контекстными окнами - 1 миллионами жетонов для Маверика и колоссальные 10 миллионов для скаута. Чтобы представить это в перспективе, это все равно что обрабатывать до 1500 и 15 000 страниц текста за один раз! Представьте себе возможности для таких областей, как медицина, наука или литература, где вам нужно обрабатывать и генерировать огромные объемы информации.

Смесь экспертов архитектуры

Все три модели Llama 4 используют архитектуру «смеси-экспертов (MOE)», методику, которая делает волны, популяризированную такими компаниями, как Openai и Mistral. Этот подход сочетает в себе несколько небольших специализированных моделей в одну более крупную, более эффективную модель. Каждая модель LlaMa 4 представляет собой смесь из 128 различных экспертов, что означает только необходимый эксперт и общий направление каждого токена, что делает модели более экономически эффективными и быстрее. Meta может похвастаться тем, что Llama 4 Maverick можно запустить на одном хосте Nvidia H100 DGX, что делает развертывание легким.

Экономичный и доступный

Meta - это все, чтобы сделать эти модели доступными. И Скаут, и Маверик доступны для самостоятельного управления, и они даже поделились некоторыми заманчивыми оценками затрат. Например, стоимость вывода для Llama 4 Maverick составляет от 0,19 до 0,49 долл. США на токены, что является кражей по сравнению с другими проприетарными моделями, такими как GPT-4O. И если вы заинтересованы в использовании этих моделей через облачный провайдер, GROQ уже выступил с конкурентными ценами.

Усовершенствованные рассуждения и метания

Эти модели построены с учетом рассуждений, кодирования и решения проблем. Meta использовала некоторые умные методы во время обучения, чтобы увеличить эти возможности, такие как удаление простых подсказок и использование непрерывного обучения подкреплению со все более сложными подсказками. Они также представили Metap, новую технику, которая позволяет устанавливать гиперпараметры на одной модели и применять их к другим, экономя время и деньги. Это изменение игры, особенно для обучающих монстров, таких как Бегемот, в котором используются 32K графических процессоров и процессы более 30 триллионов жетонов.

Производительность и сравнения

Итак, как эти модели складываются? Цукерберг ясно получил свое видение ИИ с открытым исходным кодом, и Llama 4-большой шаг в этом направлении. Хотя они могут не устанавливать новые рекорды по производительности по всем направлениям, они, безусловно, находятся на вершине своего класса. Например, «Бегемот» Llama 4 опередил некоторых тяжелых нападающих по определенным критериям, хотя он все еще играет в догоняние с серией Deepseek R1 и Openai's O1 в других.

Лама 4 Бегемот

  • Overperforms GPT-4.5, Gemini 2.0 Pro и Claude Sonnet 3.7 на Math-500 (95,0), GPQA Diamond (73,7) и MMLU Pro (82,2)

Llama 4 Behamoth Performance Hacart

Лама 4 Маверик

  • Beats GPT-4O и Gemini 2.0 Flash на большинстве многомодальных показателей рассуждений, таких как Chartqa, Docvqa, Mathvista и MMMU
  • Конкурентоспособно с DeepSeek v3.1, используя менее половины активных параметров
  • Оценки баллов: Chartqa (90.0), Docvqa (94.4), Mmlu Pro (80,5)

Llama 4 Maverick Performance Chart

Llama 4 Scout

  • Матчи или опережать модели, такие как Mistral 3.1, Gemini 2.0 Flash-Lite и Gemma 3 на DOCVQA (94,4), MMLU Pro (74,3) и Mathvista (70,7)
  • Непревзойденная длина контекста 10 м - доступна для длинных документов и кодовых баз

Llama 4 Scout Performance Hacar

По сравнению с DeepSeek R1

Когда дело доходит до высшей лиги, Llama 4 Behemoth держит свои собственные, но не совсем сверкает Deepseek R1 или Openai's O1 Series. Это немного отстает от Math-500 и MMLU, но впереди на Diamond GPQA. Тем не менее, ясно, что Llama 4 является сильным соперником в пространстве рассуждений.

Эталон Лама 4 Бегемот DeepSeek R1 Openai O1-1217
Математика-500 95.0 97.3 96.4
GPQA Diamond 73,7 71.5 75,7
MMLU 82.2 90.8 91.8

Безопасность и политическая нейтралитет

Мета тоже не забыла о безопасности. Они представили такие инструменты, как Llama Guard, Grapper Guard и Cyberseval, чтобы держать вещи вверх и вверх. И они имеют отношение к сокращению политических предвзятости, стремящихся к более сбалансированному подходу, особенно после того, как Закерберг отмечала поддержку республиканской политики после 2024 года.

Будущее с ламой 4

С Llama 4 Meta раздвигает границы эффективности, открытости и производительности в ИИ. Независимо от того, хотите ли вы построить помощников ИИ на уровне предприятия или погрузиться в исследования искусственного интеллекта, Llama 4 предлагает мощные, гибкие варианты, которые определяют приоритеты рассуждения. Понятно, что Meta стремится сделать ИИ более доступным и эффективным для всех.

Связанная статья
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
GAIA Introduces New Benchmark in Quest for True Intelligence Beyond ARC-AGI GAIA Introduces New Benchmark in Quest for True Intelligence Beyond ARC-AGI Intelligence is everywhere, yet gauging it accurately feels like trying to catch a cloud with your bare hands. We use tests and benchmarks, like college entrance exams, to get a rough idea. Each year, students cram for these tests, sometimes even scoring a perfect 100%. But does that perfect score m
How we’re using AI to help cities tackle extreme heat How we’re using AI to help cities tackle extreme heat It's looking like 2024 might just break the record for the hottest year yet, surpassing 2023. This trend is particularly tough on folks living in urban heat islands—those spots in cities where concrete and asphalt soak up the sun's rays and then radiate the heat right back out. These areas can warm
Комментарии (20)
TimothyEvans
TimothyEvans 19 апреля 2025 г., 4:25:17 GMT

Just heard about Meta's Llama 4 and it sounds insane! 2T parameters? That's a monster! Can't wait to see how it performs compared to DeepSeek R1. Hope it's not just hype, but if it lives up to the buzz, it's gonna be 🔥! Anyone tried it yet?

EricJohnson
EricJohnson 17 апреля 2025 г., 12:34:32 GMT

メタのラマ4、2Tパラメータって聞いてびっくり!ディープシークR1と比べてどんな感じなのか楽しみ。期待が大きいだけに、実際に使ってみないとわからないけど、期待してるよ!誰かもう試した?😊

JohnGarcia
JohnGarcia 22 апреля 2025 г., 3:11:00 GMT

Acabo de enterarme de Llama 4 de Meta y ¡es una locura! ¡2T parámetros! Espero que no sea solo hype, pero si cumple con las expectativas, va a ser increíble. ¿Alguien ya lo ha probado? ¡Quiero saber más! 😎

NicholasLewis
NicholasLewis 21 апреля 2025 г., 13:31:17 GMT

Acabei de ouvir sobre o Llama 4 da Meta e parece insano! 2T parâmetros? Isso é um monstro! Mal posso esperar para ver como se compara ao DeepSeek R1. Espero que não seja só hype, mas se corresponder ao burburinho, vai ser 🔥! Alguém já testou?

PaulGonzalez
PaulGonzalez 21 апреля 2025 г., 10:16:18 GMT

Gerade von Meta's Llama 4 gehört und es klingt verrückt! 2T Parameter? Das ist ein Riese! Kann es kaum erwarten zu sehen, wie es sich im Vergleich zu DeepSeek R1 schlägt. Hoffentlich ist es nicht nur Hype, aber wenn es dem Rummel gerecht wird, wird es 🔥! Jemand schon ausprobiert?

IsabellaDavis
IsabellaDavis 18 апреля 2025 г., 12:35:20 GMT

Meta's Llama 4 is a beast! The long context scout feature is a game-changer for my research. The Maverick models are cool too, but I'm really waiting for that 2T parameter model. Can't wait to see what it can do! 🤓🚀

Вернуться к вершине
OR