вариант
Дом
Новости
LLMS Deep Cogito превосходит модели аналогичного размера с использованием IDA

LLMS Deep Cogito превосходит модели аналогичного размера с использованием IDA

18 апреля 2025 г.
169

Deep Cogito, компания из Сан-Франциско, вызывает ажиотаж в сообществе ИИ благодаря последнему выпуску открытых больших языковых моделей (LLM). Эти модели, варьирующиеся по размеру от 3 миллиардов до 70 миллиардов параметров, не просто очередной набор инструментов ИИ; они представляют собой смелый шаг к тому, что компания называет "общей сверхинтеллектуальностью". Deep Cogito утверждает, что каждая из их моделей превосходит ведущие открытые модели аналогичного размера, включая модели от LLAMA, DeepSeek и Qwen, по большинству стандартных тестов. Это довольно смелое заявление, но еще более впечатляюще то, что их модель 70B, как сообщается, превзошла недавно выпущенную модель Llama 4 109B Mixture-of-Experts (MoE).

Итеративная дистилляция и усиление (IDA)

В основе прорыва Deep Cogito лежит новый подход к обучению, который они называют итеративной дистилляцией и усилением (IDA). Этот метод описывается как "масштабируемая и эффективная стратегия выравнивания для общей сверхинтеллектуальности с использованием итеративного самосовершенствования". Он разработан, чтобы преодолеть ограничения традиционного обучения LLM, где интеллект модели часто достигает потолка, определяемого более крупными моделями-"надзирателями" или человеческими кураторами.

Процесс IDA включает два ключевых этапа, которые повторяются многократно:

  • Усиление: На этом этапе используется больше вычислительной мощности, чтобы помочь модели находить лучшие решения или способности, подобно продвинутым техникам рассуждения.
  • Дистилляция: Здесь модель усваивает эти улучшенные способности, уточняя свои параметры.

Deep Cogito утверждает, что это создает "положительную обратную связь", позволяя интеллекту модели расти более прямо пропорционально вычислительным ресурсам и эффективности самого процесса IDA, а не ограничиваться интеллектом надзирателя.

Компания указывает на исторические успехи, такие как AlphaGo, подчеркивая, что "продвинутое рассуждение и итеративное самосовершенствование" были ключевыми. IDA, как они утверждают, привносит эти элементы в обучение LLM. Они также подчеркивают эффективность IDA, отмечая, что их небольшая команда смогла разработать эти модели примерно за 75 дней. По сравнению с другими методами, такими как обучение с подкреплением на основе человеческой обратной связи (RLHF) или стандартная дистилляция из более крупных моделей, IDA, как утверждается, обеспечивает лучшую масштабируемость.

В качестве доказательства Deep Cogito подчеркивает, как их модель 70B превосходит как Llama 3.3 70B (дистиллированную из модели 405B), так и Llama 4 Scout 109B (дистиллированную из модели с 2T параметров).

Возможности и производительность моделей Deep Cogito

Новые модели Cogito, основанные на контрольных точках Llama и Qwen, адаптированы для программирования, вызова функций и агентских приложений. Отличительной особенностью является их двойная функциональность: "Каждая модель может отвечать напрямую (стандартный LLM) или размышлять перед ответом (как модели рассуждения)". Это напоминает возможности, наблюдаемые в моделях, таких как Claude 3.5. Однако Deep Cogito отмечает, что они не сосредотачивались на очень длинных цепочках рассуждений, отдавая приоритет более быстрым ответам и эффективности дистилляции более коротких цепочек.

Компания предоставила обширные результаты тестов, сравнивая свои модели Cogito с современными открытыми моделями эквивалентного размера как в прямом, так и в режиме рассуждений. По ряду тестов, таких как MMLU, MMLU-Pro, ARC, GSM8K и MATH, и для разных размеров моделей (3B, 8B, 14B, 32B, 70B), модели Cogito в целом демонстрируют значительные улучшения производительности. Например, модель Cogito 70B набирает 91,73% на MMLU в стандартном режиме, что на +6,40% лучше, чем Llama 3.3 70B, и 91,00% в режиме размышления, что на +4,40% лучше, чем Deepseek R1 Distill 70B. Результаты Livebench также отражают эти успехи.

Вот тесты моделей 14B для сравнения среднего размера:

Тесты моделей 14B

Хотя Deep Cogito признает, что тесты не полностью отражают реальную полезность, они остаются уверенными в практической производительности своих моделей. Этот выпуск считается предварительным, и компания заявляет, что они "все еще находятся на ранних стадиях этой кривой масштабирования". Они планируют выпустить улучшенные контрольные точки для текущих размеров и представить более крупные модели MoE (109B, 400B, 671B) в ближайшие недели и месяцы. Все будущие модели также будут с открытым исходным кодом.

Связанная статья
Meta Усиливает Безопасность ИИ с Помощью Продвинутых Инструментов Llama Meta Усиливает Безопасность ИИ с Помощью Продвинутых Инструментов Llama Meta выпустила новые инструменты безопасности Llama для укрепления разработки ИИ и защиты от новых угроз.Эти усовершенствованные инструменты безопасности модели ИИ Llama сочетаются с новыми ресурсами
NotebookLM представляет курируемые тетради от ведущих изданий и экспертов NotebookLM представляет курируемые тетради от ведущих изданий и экспертов Google совершенствует свой инструмент для исследований и заметок на базе ИИ, NotebookLM, чтобы сделать его всеобъемлющим центром знаний. В понедельник компания представила курируемую коллекцию тетраде
Alibaba представляет Wan2.1-VACE: Открытое решение для видео с ИИ Alibaba представляет Wan2.1-VACE: Открытое решение для видео с ИИ Alibaba представила Wan2.1-VACE, модель ИИ с открытым исходным кодом, которая призвана трансформировать процессы создания и редактирования видео.VACE является ключевым компонентом семейства видео моде
Комментарии (26)
PaulThomas
PaulThomas 6 августа 2025 г., 22:01:00 GMT+03:00

Super cool to see Deep Cogito pushing the boundaries with their LLMs! 😎 Those parameter sizes are wild—wonder how they stack up in real-world tasks?

GregoryCarter
GregoryCarter 21 апреля 2025 г., 6:16:16 GMT+03:00

LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡

EricRoberts
EricRoberts 20 апреля 2025 г., 7:40:17 GMT+03:00

ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡

WillieAnderson
WillieAnderson 20 апреля 2025 г., 7:09:03 GMT+03:00

딥 코기토의 LLM은 정말 혁신적이에요! 비슷한 크기의 모델과 비교해도 성능 향상이 놀랍습니다. IDA 접근법이 큰 차이를 만듭니다. 유일한 단점은 학습 곡선인데, 한번 익숙해지면 문제없어요! 🚀

EricKing
EricKing 20 апреля 2025 г., 1:12:37 GMT+03:00

Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡

BruceClark
BruceClark 19 апреля 2025 г., 21:48:03 GMT+03:00

ディープ・コギトのLLMは本当に素晴らしい!同じサイズのモデルと比べてパフォーマンスが格段に向上しています。私は研究に700億パラメータのモデルを使っていますが、これはまるで超賢いアシスタントを持つようなものです。唯一の欠点はリソースを多く消費することですが、それでも完全に価値があります!🚀

Вернуться к вершине
OR