O LLMS da Deep Cogito superou os modelos de tamanho semelhante usando IDA
18 de Abril de 2025
JoseAdams
91
A Deep Cogito, uma empresa de São Francisco, está fazendo ondas na comunidade de IA com o último lançamento de grandes modelos de idiomas abertos (LLMS). Esses modelos, que vêm em vários tamanhos que variam de 3 bilhões a 70 bilhões de parâmetros, não são apenas mais um conjunto de ferramentas de IA; Eles são um passo ousado para o que a empresa chama de "superinteligência geral". O Deep Cogito afirma que cada um de seus modelos supera os principais modelos abertos de tamanhos semelhantes, incluindo os de Llama, Deepseek e Qwen, na maioria dos benchmarks padrão. É uma reivindicação, mas o que é ainda mais impressionante é que seu modelo 70B supostamente superou o modelo Llama 4 109B (MOE) lançado recentemente lançado.
Destilação e amplificação iterada (IDA)
No coração do avanço de Deep Cogito, há uma nova abordagem de treinamento que eles chamam de destilação e amplificação iterada (IDA). Este método é descrito como "uma estratégia de alinhamento escalável e eficiente para a superinteligência geral usando auto-aperfeiçoamento iterativo". Ele foi projetado para ultrapassar as limitações do treinamento tradicional de LLM, onde a inteligência do modelo geralmente atinge um teto definido por modelos maiores de "superintendentes" ou curadores humanos.
O processo da IDA gira em torno de duas etapas principais que são repetidas repetidas vezes:
- Amplificação: Esta etapa usa mais energia computacional para ajudar o modelo a criar melhores soluções ou recursos, assim como as técnicas avançadas de raciocínio.
- Destilação: Aqui, o modelo internaliza esses recursos aprimorados, refinando seus parâmetros.
O Deep Cogito argumenta que isso cria um "ciclo de feedback positivo", permitindo que a inteligência do modelo cresça mais diretamente com os recursos computacionais e com a eficiência do próprio processo de IDA, em vez de ser limitado pela inteligência de um superintendente.
A empresa aponta para sucessos históricos como o AlphaGo, enfatizando que "raciocínio avançado e auto-aperfeiçoamento iterativo" eram cruciais. Ida, eles afirmam, traz esses elementos para o treinamento da LLM. Eles também divulgam a eficiência da IDA, observando que sua equipe, embora pequena, conseguiu desenvolver esses modelos em apenas 75 dias. Quando comparado a outros métodos como o aprendizado de reforço com o feedback humano (RLHF) ou a destilação padrão de modelos maiores, diz -se que a IDA oferece melhor escalabilidade.
Como prova, o Deep Cogito destaca como seu modelo 70B supera o LLAMA 3.3 70B (destilado de um modelo 405B) e LLAMA 4 Scout 109b (destilado de um modelo de parâmetro 2T).
Recursos e desempenho de modelos Deep Cogito
Os novos modelos Cogito, que se baseiam nos pontos de verificação LLAMA e QWEN, são adaptados para aplicações de codificação, chamada de função e agênticos. Um recurso de destaque é sua funcionalidade dupla: "Cada modelo pode responder diretamente (LLM padrão) ou se auto-refletir antes de responder (como modelos de raciocínio)". Isso reflete os recursos vistos em modelos como Claude 3.5. No entanto, o Deep Cogito menciona que eles não se concentraram em cadeias de raciocínio muito longas, priorizando respostas mais rápidas e a eficiência de destilar cadeias mais curtas.
A empresa compartilhou extensos resultados de referência, comparando seus modelos Cogito com os modelos abertos de ponta equivalentes ao tamanho equivalentes nos modos diretos e de raciocínio. Em uma variedade de benchmarks como MMLU, MMLU-Pro, ARC, GSM8K e Math, e em diferentes tamanhos de modelo (3B, 8B, 14B, 32B, 70B), os modelos Cogito geralmente mostram melhorias significativas de desempenho. Por exemplo, o modelo Cogito 70B pontua 91,73% no MMLU no modo padrão, uma melhoria de uma +6,40% em relação à llama 3,3 70B e 91,00% no modo de pensamento, um aumento de +4,40% sobre o DeepSeek R1 Destill 70b. As pontuações do LiveBench também refletem esses ganhos.
Aqui estão os benchmarks de modelos 14B para uma comparação de tamanho médio:

Embora o Deep Cogito reconheça que os benchmarks não capturam totalmente a utilidade do mundo real, eles permanecem confiantes no desempenho prático de seus modelos. Este lançamento é considerado uma prévia, com a empresa afirmando que "ainda está nos estágios iniciais dessa curva de escala". Eles planejam liberar pontos de verificação aprimorados para os tamanhos atuais e introduzir modelos MOE maiores (109b, 400b, 671b) nas próximas semanas e meses. Todos os modelos futuros também serão de código aberto.
Artigo relacionado
Microsoft 365 Copilot이 향상된 검색, 이미지 및 노트북 기능으로 재 설계 한 공개
Microsoft는 비즈니스 요구를 충족 시키도록 설계된 Microsoft 365 Copilot 앱에 대한 새로운 테이크를 출시하고 일반 Copilot의 소비자 친화적 인 기능과 더 밀접하게 통합되었습니다. 업데이트 된 버전은 AI 기반 검색을 자랑하며 OPE를 활용하는 새로운 '생성'기능을 자랑합니다.
AI 벤치마킹에 대한 논쟁은 Pokémon에 도달했습니다
사랑하는 포켓몬의 세계조차도 AI 벤치 마크를 둘러싼 드라마에 면역이되지 않습니다. X의 최근 바이러스 성 게시물은 Google의 최신 Gemini 모델이 Classic Pokémon Video Game Trilogy에서 Anthropic의 주요 클로드 모델을 능가했다고 주장하면서 상당히 화제를 불러 일으켰습니다. 포스트에 따르면, Gemini
2025 년 4 월의 상위 10 개 AI 마케팅 도구
인공 지능 (AI)은 왼쪽과 오른쪽 산업을 흔들고 있으며 마케팅도 예외는 아닙니다. 소규모 신생 기업에서 대기업에 이르기까지 비즈니스는 브랜드 가시성을 높이고 성장을 주도하기 위해 AI 마케팅 도구를 점점 더 많이 전환하고 있습니다. 이러한 도구를 비즈니스에 통합합니다
Comentários (20)
0/200
EricKing
19 de Abril de 2025 à37 22:12:37 GMT
Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡
0
EricRoberts
20 de Abril de 2025 à17 04:40:17 GMT
ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡
0
RichardThomas
19 de Abril de 2025 à42 03:58:42 GMT
Os LLMs da Deep Cogito são impressionantes, mas o app poderia ter uma UI melhor. É um pouco desajeitado navegar pelos diferentes tamanhos de modelo. Ainda assim, o desempenho é de primeira linha, especialmente com a tecnologia IDA. Vale a pena dar uma olhada se você gosta de IA e quer ver o que é possível com modelos de linguagem grandes! 🤖💡
0
WillMitchell
18 de Abril de 2025 à50 20:01:50 GMT
Los LLMs de Deep Cogito son impresionantes, pero la app podría tener una mejor UI. Es un poco torpe navegar entre los diferentes tamaños de modelo. Aún así, el rendimiento es de primera, especialmente con la tecnología IDA. Vale la pena echar un vistazo si te interesa la IA y quieres ver lo que es posible con modelos de lenguaje grandes! 🤖💡
0
GregoryCarter
21 de Abril de 2025 à16 03:16:16 GMT
LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡
0
JackHernández
19 de Abril de 2025 à0 00:12:00 GMT
Deep Cogito's LLMs are a game-changer! The performance boost over similar-sized models is impressive. I've been using the 70 billion parameter model for my research, and it's like having a super-smart assistant. Only downside? It's a bit resource-heavy. Still, totally worth it! 🚀
0






A Deep Cogito, uma empresa de São Francisco, está fazendo ondas na comunidade de IA com o último lançamento de grandes modelos de idiomas abertos (LLMS). Esses modelos, que vêm em vários tamanhos que variam de 3 bilhões a 70 bilhões de parâmetros, não são apenas mais um conjunto de ferramentas de IA; Eles são um passo ousado para o que a empresa chama de "superinteligência geral". O Deep Cogito afirma que cada um de seus modelos supera os principais modelos abertos de tamanhos semelhantes, incluindo os de Llama, Deepseek e Qwen, na maioria dos benchmarks padrão. É uma reivindicação, mas o que é ainda mais impressionante é que seu modelo 70B supostamente superou o modelo Llama 4 109B (MOE) lançado recentemente lançado.
Destilação e amplificação iterada (IDA)
No coração do avanço de Deep Cogito, há uma nova abordagem de treinamento que eles chamam de destilação e amplificação iterada (IDA). Este método é descrito como "uma estratégia de alinhamento escalável e eficiente para a superinteligência geral usando auto-aperfeiçoamento iterativo". Ele foi projetado para ultrapassar as limitações do treinamento tradicional de LLM, onde a inteligência do modelo geralmente atinge um teto definido por modelos maiores de "superintendentes" ou curadores humanos.
O processo da IDA gira em torno de duas etapas principais que são repetidas repetidas vezes:
- Amplificação: Esta etapa usa mais energia computacional para ajudar o modelo a criar melhores soluções ou recursos, assim como as técnicas avançadas de raciocínio.
- Destilação: Aqui, o modelo internaliza esses recursos aprimorados, refinando seus parâmetros.
O Deep Cogito argumenta que isso cria um "ciclo de feedback positivo", permitindo que a inteligência do modelo cresça mais diretamente com os recursos computacionais e com a eficiência do próprio processo de IDA, em vez de ser limitado pela inteligência de um superintendente.
A empresa aponta para sucessos históricos como o AlphaGo, enfatizando que "raciocínio avançado e auto-aperfeiçoamento iterativo" eram cruciais. Ida, eles afirmam, traz esses elementos para o treinamento da LLM. Eles também divulgam a eficiência da IDA, observando que sua equipe, embora pequena, conseguiu desenvolver esses modelos em apenas 75 dias. Quando comparado a outros métodos como o aprendizado de reforço com o feedback humano (RLHF) ou a destilação padrão de modelos maiores, diz -se que a IDA oferece melhor escalabilidade.
Como prova, o Deep Cogito destaca como seu modelo 70B supera o LLAMA 3.3 70B (destilado de um modelo 405B) e LLAMA 4 Scout 109b (destilado de um modelo de parâmetro 2T).
Recursos e desempenho de modelos Deep Cogito
Os novos modelos Cogito, que se baseiam nos pontos de verificação LLAMA e QWEN, são adaptados para aplicações de codificação, chamada de função e agênticos. Um recurso de destaque é sua funcionalidade dupla: "Cada modelo pode responder diretamente (LLM padrão) ou se auto-refletir antes de responder (como modelos de raciocínio)". Isso reflete os recursos vistos em modelos como Claude 3.5. No entanto, o Deep Cogito menciona que eles não se concentraram em cadeias de raciocínio muito longas, priorizando respostas mais rápidas e a eficiência de destilar cadeias mais curtas.
A empresa compartilhou extensos resultados de referência, comparando seus modelos Cogito com os modelos abertos de ponta equivalentes ao tamanho equivalentes nos modos diretos e de raciocínio. Em uma variedade de benchmarks como MMLU, MMLU-Pro, ARC, GSM8K e Math, e em diferentes tamanhos de modelo (3B, 8B, 14B, 32B, 70B), os modelos Cogito geralmente mostram melhorias significativas de desempenho. Por exemplo, o modelo Cogito 70B pontua 91,73% no MMLU no modo padrão, uma melhoria de uma +6,40% em relação à llama 3,3 70B e 91,00% no modo de pensamento, um aumento de +4,40% sobre o DeepSeek R1 Destill 70b. As pontuações do LiveBench também refletem esses ganhos.
Aqui estão os benchmarks de modelos 14B para uma comparação de tamanho médio:
Embora o Deep Cogito reconheça que os benchmarks não capturam totalmente a utilidade do mundo real, eles permanecem confiantes no desempenho prático de seus modelos. Este lançamento é considerado uma prévia, com a empresa afirmando que "ainda está nos estágios iniciais dessa curva de escala". Eles planejam liberar pontos de verificação aprimorados para os tamanhos atuais e introduzir modelos MOE maiores (109b, 400b, 671b) nas próximas semanas e meses. Todos os modelos futuros também serão de código aberto.




Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡




ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡




Os LLMs da Deep Cogito são impressionantes, mas o app poderia ter uma UI melhor. É um pouco desajeitado navegar pelos diferentes tamanhos de modelo. Ainda assim, o desempenho é de primeira linha, especialmente com a tecnologia IDA. Vale a pena dar uma olhada se você gosta de IA e quer ver o que é possível com modelos de linguagem grandes! 🤖💡




Los LLMs de Deep Cogito son impresionantes, pero la app podría tener una mejor UI. Es un poco torpe navegar entre los diferentes tamaños de modelo. Aún así, el rendimiento es de primera, especialmente con la tecnología IDA. Vale la pena echar un vistazo si te interesa la IA y quieres ver lo que es posible con modelos de lenguaje grandes! 🤖💡




LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡




Deep Cogito's LLMs are a game-changer! The performance boost over similar-sized models is impressive. I've been using the 70 billion parameter model for my research, and it's like having a super-smart assistant. Only downside? It's a bit resource-heavy. Still, totally worth it! 🚀












