LLMS Deep Cogito превосходит модели аналогичного размера с использованием IDA
Deep Cogito, компания из Сан-Франциско, делает волны в сообществе ИИ с последним выпуском моделей открытых крупных языков (LLMS). Эти модели, которые бывают разных размеров от 3 миллиардов до 70 миллиардов параметров, являются не просто еще одним набором инструментов ИИ; Они смелый шаг к тому, что компания называет «общей супертеллигенностью». Глубокий Cogito утверждает, что каждая из их моделей превосходит ведущие открытые модели аналогичных размеров, в том числе модели Llama, Deepseek и Qwen, по большинству стандартных критериев. Это довольно утверждение, но что еще более впечатляет, так это то, что их модель 70B, как сообщается, затухала недавно выпущенную модель Llama 4 109b Experts (MOE).
Итерация дистилляция и усиление (IDA)
В основе прорыва Deep Cogito лежит новый подход к обучению, который они называют итерационной дистилляцией и усилением (IDA). Этот метод описывается как «масштабируемая и эффективная стратегия выравнивания для общей суперинтеллигенности с использованием итеративного самосовершенствования». Он предназначен для того, чтобы продлить ограничения традиционного обучения LLM, где интеллект модели часто попадает в потолок, определяемый более крупными моделями «надзирателя» или человеческими кураторами.
Процесс IDA вращается вокруг двух ключевых шагов, которые повторяются снова и снова:
- Усиление: этот шаг использует больше вычислительной мощности, чтобы помочь модели придумать лучшие решения или возможности, так же, как усовершенствованные методы рассуждения.
- Дистилляция: Здесь модель интернатизирует эти улучшенные возможности, уточняя его параметры.
Глубокий Cogito утверждает, что это создает «петлю положительной обратной связи», позволяя интеллекту модели расти более непосредственно с вычислительными ресурсами и эффективностью самого процесса IDA, а не ограниченным интеллектом надзирателя.
Компания указывает на исторические успехи, такие как Альфаго, подчеркивая, что «передовые рассуждения и итеративное самосовершенствование» были решающими. Ида, утверждают они, привносит эти элементы в обучение LLM. Они также рекламируют эффективность IDA, отметив, что их команде, хотя и небольшая, удалось разработать эти модели всего за 75 дней. По сравнению с другими методами, такими как обучение подкреплению от обратной связи человека (RLHF) или стандартной дистилляции из более крупных моделей, IDA, как говорят, предлагает лучшую масштабируемость.
В качестве доказательства, Deep Cogito подчеркивает, как их модель 70b превосходит как Llama 3.3 70b (дистиллированная из модели 405b), так и Llama 4 Scout 109b (дистиллированная по модели параметров 2T).
Возможности и производительность моделей Deep Cogito
Новые модели Cogito, которые основаны на контрольно -пропускных пунктах Llama и Qwen, адаптированы для кодирования, вызова функций и агентских приложений. Выдающейся функцией является их двойная функциональность: «Каждая модель может ответить напрямую (стандартный LLM) или саморефлексирует перед ответом (например, модели рассуждений)». Это отражает возможности, которые можно увидеть в таких моделях, как Claude 3.5. Тем не менее, глубокий Cogito упоминает, что они не сосредоточены на очень длинных цепях рассуждений, приоритетных более быстрыми ответами и эффективностью дистилляции более коротких цепей.
Компания имеет обширные результаты, сравнивая свои модели Cogito с эквивалентными размерами современные открытые модели как в режимах прямых, так и в режимах рассуждений. В целом диапазон тестов, таких как MMLU, MMLU-PRO, ARC, GSM8K и MATH, и в разных размерах модели (3B, 8B, 14B, 32B, 70B), модели Cogito обычно демонстрируют значительные улучшения производительности. Например, модель Cogito 70B оценивает 91,73% по MMLU в стандартном режиме, улучшение A +6,40% по сравнению с Llama 3.3 70B и 91,00% в режиме мышления, на +4,40% над DeepSeek R1 Distill 70b. Оценки LiveBench также отражают эти выгоды.
Вот тесты моделей 14B для сравнения среднего размера:

В то время как Deep Cogito признает, что тесты не полностью отражают реальную утилиту, они по-прежнему уверены в практических показателях своих моделей. Этот релиз считается предварительным просмотром: компания заявляет, что они «все еще находятся на ранних стадиях этой кривой масштабирования». Они планируют выпустить улучшенные контрольно -пропускные пункты для текущих размеров и представить более крупные модели MOE (109B, 400B, 671B) в ближайшие недели и месяцы. Все будущие модели также будут открытыми источниками.
Связанная статья
AI가 역사적 언어를 모방하는 데 어려움을 겪는다
미국과 캐나다의 연구팀은 ChatGPT와 같은 대형 언어 모델이 광범위하고 비용이 많이 드는 사전 훈련 없이 역사적 관용구를 정확히 재현하는 데 어려움을 겪는다는 것을 발견했다. 이 문제는 AI를 사용해 찰스 디킨스의 미완성 마지막 소설을 완성하는 것과 같은 야심찬 프로젝트를 학술 및 엔터테인먼트 분야에서 실현하기 어렵게 만든다.연구팀은 역사적으로 정확한
억만장자들이 이번 주 AI 업데이트에서 일자리 자동화에 대해 논의하다
안녕하세요, TechCrunch의 AI 뉴스레터에 다시 오신 것을 환영합니다! 아직 구독하지 않으셨다면, 매주 수요일마다 받은 편지함으로 바로 배달받을 수 있도록 여기를 클릭해 구독하세요.지난주에는 잠시 쉬었지만, 그럴만한 이유가 있었습니다—중국의 AI 회사 DeepSeek의 갑작스러운 급부상 덕분에 AI 뉴스 사이클이 뜨거웠습니다. 정신없는 시간이였지만,
NotebookLM 앱 출시: AI 기반 지식 도구
NotebookLM 모바일 출시: 이제 Android와 iOS에서 만나는 AI 연구 보조 도구NotebookLM에 대한 여러분의 뜨거운 반응에 깊이 감사드립니다. 수백만 사용자가 복잡한 정보를 이해하는 필수 도구로 NotebookLM을 선택해주셨습니다. 하지만 가장 많이 받은 요청은 바로 "언제 모바일에서 사용할 수 있나
Комментарии (25)
EricKing
20 апреля 2025 г., 0:00:00 GMT
Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡
0
EricRoberts
20 апреля 2025 г., 0:00:00 GMT
ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡
0
RichardThomas
19 апреля 2025 г., 0:00:00 GMT
Os LLMs da Deep Cogito são impressionantes, mas o app poderia ter uma UI melhor. É um pouco desajeitado navegar pelos diferentes tamanhos de modelo. Ainda assim, o desempenho é de primeira linha, especialmente com a tecnologia IDA. Vale a pena dar uma olhada se você gosta de IA e quer ver o que é possível com modelos de linguagem grandes! 🤖💡
0
WillMitchell
19 апреля 2025 г., 0:00:00 GMT
Los LLMs de Deep Cogito son impresionantes, pero la app podría tener una mejor UI. Es un poco torpe navegar entre los diferentes tamaños de modelo. Aún así, el rendimiento es de primera, especialmente con la tecnología IDA. Vale la pena echar un vistazo si te interesa la IA y quieres ver lo que es posible con modelos de lenguaje grandes! 🤖💡
0
GregoryCarter
21 апреля 2025 г., 0:00:00 GMT
LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡
0
JackHernández
19 апреля 2025 г., 0:00:00 GMT
Deep Cogito's LLMs are a game-changer! The performance boost over similar-sized models is impressive. I've been using the 70 billion parameter model for my research, and it's like having a super-smart assistant. Only downside? It's a bit resource-heavy. Still, totally worth it! 🚀
0
Deep Cogito, компания из Сан-Франциско, делает волны в сообществе ИИ с последним выпуском моделей открытых крупных языков (LLMS). Эти модели, которые бывают разных размеров от 3 миллиардов до 70 миллиардов параметров, являются не просто еще одним набором инструментов ИИ; Они смелый шаг к тому, что компания называет «общей супертеллигенностью». Глубокий Cogito утверждает, что каждая из их моделей превосходит ведущие открытые модели аналогичных размеров, в том числе модели Llama, Deepseek и Qwen, по большинству стандартных критериев. Это довольно утверждение, но что еще более впечатляет, так это то, что их модель 70B, как сообщается, затухала недавно выпущенную модель Llama 4 109b Experts (MOE).
Итерация дистилляция и усиление (IDA)
В основе прорыва Deep Cogito лежит новый подход к обучению, который они называют итерационной дистилляцией и усилением (IDA). Этот метод описывается как «масштабируемая и эффективная стратегия выравнивания для общей суперинтеллигенности с использованием итеративного самосовершенствования». Он предназначен для того, чтобы продлить ограничения традиционного обучения LLM, где интеллект модели часто попадает в потолок, определяемый более крупными моделями «надзирателя» или человеческими кураторами.
Процесс IDA вращается вокруг двух ключевых шагов, которые повторяются снова и снова:
- Усиление: этот шаг использует больше вычислительной мощности, чтобы помочь модели придумать лучшие решения или возможности, так же, как усовершенствованные методы рассуждения.
- Дистилляция: Здесь модель интернатизирует эти улучшенные возможности, уточняя его параметры.
Глубокий Cogito утверждает, что это создает «петлю положительной обратной связи», позволяя интеллекту модели расти более непосредственно с вычислительными ресурсами и эффективностью самого процесса IDA, а не ограниченным интеллектом надзирателя.
Компания указывает на исторические успехи, такие как Альфаго, подчеркивая, что «передовые рассуждения и итеративное самосовершенствование» были решающими. Ида, утверждают они, привносит эти элементы в обучение LLM. Они также рекламируют эффективность IDA, отметив, что их команде, хотя и небольшая, удалось разработать эти модели всего за 75 дней. По сравнению с другими методами, такими как обучение подкреплению от обратной связи человека (RLHF) или стандартной дистилляции из более крупных моделей, IDA, как говорят, предлагает лучшую масштабируемость.
В качестве доказательства, Deep Cogito подчеркивает, как их модель 70b превосходит как Llama 3.3 70b (дистиллированная из модели 405b), так и Llama 4 Scout 109b (дистиллированная по модели параметров 2T).
Возможности и производительность моделей Deep Cogito
Новые модели Cogito, которые основаны на контрольно -пропускных пунктах Llama и Qwen, адаптированы для кодирования, вызова функций и агентских приложений. Выдающейся функцией является их двойная функциональность: «Каждая модель может ответить напрямую (стандартный LLM) или саморефлексирует перед ответом (например, модели рассуждений)». Это отражает возможности, которые можно увидеть в таких моделях, как Claude 3.5. Тем не менее, глубокий Cogito упоминает, что они не сосредоточены на очень длинных цепях рассуждений, приоритетных более быстрыми ответами и эффективностью дистилляции более коротких цепей.
Компания имеет обширные результаты, сравнивая свои модели Cogito с эквивалентными размерами современные открытые модели как в режимах прямых, так и в режимах рассуждений. В целом диапазон тестов, таких как MMLU, MMLU-PRO, ARC, GSM8K и MATH, и в разных размерах модели (3B, 8B, 14B, 32B, 70B), модели Cogito обычно демонстрируют значительные улучшения производительности. Например, модель Cogito 70B оценивает 91,73% по MMLU в стандартном режиме, улучшение A +6,40% по сравнению с Llama 3.3 70B и 91,00% в режиме мышления, на +4,40% над DeepSeek R1 Distill 70b. Оценки LiveBench также отражают эти выгоды.
Вот тесты моделей 14B для сравнения среднего размера:
В то время как Deep Cogito признает, что тесты не полностью отражают реальную утилиту, они по-прежнему уверены в практических показателях своих моделей. Этот релиз считается предварительным просмотром: компания заявляет, что они «все еще находятся на ранних стадиях этой кривой масштабирования». Они планируют выпустить улучшенные контрольно -пропускные пункты для текущих размеров и представить более крупные модели MOE (109B, 400B, 671B) в ближайшие недели и месяцы. Все будущие модели также будут открытыми источниками.




Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡




ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡




Os LLMs da Deep Cogito são impressionantes, mas o app poderia ter uma UI melhor. É um pouco desajeitado navegar pelos diferentes tamanhos de modelo. Ainda assim, o desempenho é de primeira linha, especialmente com a tecnologia IDA. Vale a pena dar uma olhada se você gosta de IA e quer ver o que é possível com modelos de linguagem grandes! 🤖💡




Los LLMs de Deep Cogito son impresionantes, pero la app podría tener una mejor UI. Es un poco torpe navegar entre los diferentes tamaños de modelo. Aún así, el rendimiento es de primera, especialmente con la tecnología IDA. Vale la pena echar un vistazo si te interesa la IA y quieres ver lo que es posible con modelos de lenguaje grandes! 🤖💡




LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡




Deep Cogito's LLMs are a game-changer! The performance boost over similar-sized models is impressive. I've been using the 70 billion parameter model for my research, and it's like having a super-smart assistant. Only downside? It's a bit resource-heavy. Still, totally worth it! 🚀












