Ai2 представляет компактную модель ИИ, превосходящую конкурентов Google и Meta

Малые модели ИИ вызывают ажиотаж на этой неделе.
В четверг Ai2, некоммерческая группа по исследованию ИИ, запустила Olmo 2 1B, модель с 1 миллиардом параметров, которая превосходит аналогичные по размеру модели от Google, Meta и Alibaba по множеству тестов. Параметры, часто называемые весами, — это внутренние элементы, определяющие производительность модели.
Olmo 2 1B доступна бесплатно под лицензией Apache 2.0 на платформе Hugging Face для разработчиков ИИ. В отличие от большинства моделей, её можно полностью воспроизвести, так как Ai2 предоставляет код и наборы данных (Olmo-mix-1124, Dolmino-mix-1124), использованные при её разработке.
Хотя малые модели могут уступать в мощности крупным, они не требуют высокопроизводительного оборудования, что делает их идеальными для разработчиков и энтузиастов, использующих стандартные ноутбуки или потребительские устройства.
В последние дни наблюдается всплеск выпуска малых моделей, от семейства Phi 4 от Microsoft до Qwen 2.5 Omni 3B. Большинство, включая Olmo 2 1B, могут бесперебойно работать на современных ноутбуках или даже мобильных устройствах.
Ai2 отмечает, что Olmo 2 1B была обучена на 4 триллионах токенов из общедоступных, сгенерированных ИИ и отобранных источников. Миллион токенов примерно равен 750 000 слов.
В тестах на арифметическое мышление, таких как GSM8K, Olmo 2 1B превосходит Gemma 3 1B от Google, Llama 3.2 1B от Meta и Qwen 2.5 1.5B от Alibaba. Она также выделяется в TruthfulQA, тесте на фактическую точность.
Презентация на TechCrunch Sessions: AI
Забронируйте место на TC Sessions: AI, чтобы представить свою работу более чем 1200 лицам, принимающим решения, без больших затрат. Доступно до 9 мая или пока есть места.
Презентация на TechCrunch Sessions: AI
Забронируйте место на TC Sessions: AI, чтобы представить свою работу более чем 1200 лицам, принимающим решения, без больших затрат. Доступно до 9 мая или пока есть места.
Беркли, Калифорния | 5 июня
ЗАБРОНИРОВАТЬ СЕЙЧАС
Эта модель была предварительно обучена на 4 триллионах токенов высококачественных данных, следуя тому же стандарту предварительного обучения с высококачественным отжигом, что и наши модели на 7, 13 и 32 миллиарда. Мы загружаем промежуточные контрольные точки каждые 1000 шагов обучения.
Доступ к базовой модели: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
— Ai2 (@allen_ai) 1 мая 2025
Ai2 предупреждает, что Olmo 2 1B имеет риски. Как и все модели ИИ, она может генерировать проблемные результаты, включая вредоносный или чувствительный контент и неточную информацию. Ai2 советует не использовать её в коммерческих приложениях.
Связанная статья
Что внутри LLM? AI2 Olmotrace будет «проследить» источник
Понимание связи между выводом большой языковой модели (LLM) и ее обучающими данными всегда было чем -то вроде загадки для Enterprise IT. На этой неделе Институт ИИ Аллена (AI2) выпустил новую захватывающую инициативу с открытым исходным кодом под названием Olmotrace, которая направлена на демистификацию этого Relati
AI для новых открытий в 2026 году, говорит генеральный директор OpenAI
В недавнем эссе под названием «Мягкая сингулярность», опубликованном во вторник, генеральный директор OpenAI Сэм Альтман изложил свое видение трансформационного воздействия AI на человечество в ближай
Подъем Трампа: Как политические эксперты ошиблись в оценке его президентства
В политике прогнозы часто оказываются неверными. Эксперты, аналитики и комментаторы регулярно предсказывают результаты выборов и политические тенденции, но история показывает их ошибки, особенно в слу
Комментарии (0)
Малые модели ИИ вызывают ажиотаж на этой неделе.
В четверг Ai2, некоммерческая группа по исследованию ИИ, запустила Olmo 2 1B, модель с 1 миллиардом параметров, которая превосходит аналогичные по размеру модели от Google, Meta и Alibaba по множеству тестов. Параметры, часто называемые весами, — это внутренние элементы, определяющие производительность модели.
Olmo 2 1B доступна бесплатно под лицензией Apache 2.0 на платформе Hugging Face для разработчиков ИИ. В отличие от большинства моделей, её можно полностью воспроизвести, так как Ai2 предоставляет код и наборы данных (Olmo-mix-1124, Dolmino-mix-1124), использованные при её разработке.
Хотя малые модели могут уступать в мощности крупным, они не требуют высокопроизводительного оборудования, что делает их идеальными для разработчиков и энтузиастов, использующих стандартные ноутбуки или потребительские устройства.
В последние дни наблюдается всплеск выпуска малых моделей, от семейства Phi 4 от Microsoft до Qwen 2.5 Omni 3B. Большинство, включая Olmo 2 1B, могут бесперебойно работать на современных ноутбуках или даже мобильных устройствах.
Ai2 отмечает, что Olmo 2 1B была обучена на 4 триллионах токенов из общедоступных, сгенерированных ИИ и отобранных источников. Миллион токенов примерно равен 750 000 слов.
В тестах на арифметическое мышление, таких как GSM8K, Olmo 2 1B превосходит Gemma 3 1B от Google, Llama 3.2 1B от Meta и Qwen 2.5 1.5B от Alibaba. Она также выделяется в TruthfulQA, тесте на фактическую точность.
Презентация на TechCrunch Sessions: AI
Забронируйте место на TC Sessions: AI, чтобы представить свою работу более чем 1200 лицам, принимающим решения, без больших затрат. Доступно до 9 мая или пока есть места.
Презентация на TechCrunch Sessions: AI
Забронируйте место на TC Sessions: AI, чтобы представить свою работу более чем 1200 лицам, принимающим решения, без больших затрат. Доступно до 9 мая или пока есть места.
Беркли, Калифорния | 5 июня ЗАБРОНИРОВАТЬ СЕЙЧАСЭта модель была предварительно обучена на 4 триллионах токенов высококачественных данных, следуя тому же стандарту предварительного обучения с высококачественным отжигом, что и наши модели на 7, 13 и 32 миллиарда. Мы загружаем промежуточные контрольные точки каждые 1000 шагов обучения.
— Ai2 (@allen_ai) 1 мая 2025
Доступ к базовой модели: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
Ai2 предупреждает, что Olmo 2 1B имеет риски. Как и все модели ИИ, она может генерировать проблемные результаты, включая вредоносный или чувствительный контент и неточную информацию. Ai2 советует не использовать её в коммерческих приложениях.












