Les LLM de Deep Cogito surpassent les modèles de taille similaire à l'aide d'IDA
Deep Cogito, une entreprise basée à San Francisco, fait des vagues dans la communauté de l'IA avec sa dernière version de modèles ouverts en grande langue (LLMS). Ces modèles, qui se trouvent dans différentes tailles allant de 3 milliards à 70 milliards de paramètres, ne sont pas seulement un autre ensemble d'outils d'IA; Ils sont un pas audacieux vers ce que l'entreprise appelle la «superintelligence générale». Deep Cogito affirme que chacun de leurs modèles surpasse les principaux modèles ouverts de tailles similaires, y compris ceux de Llama, Deepseek et Qwen, dans la plupart des références standard. C'est tout à fait une affirmation, mais ce qui est encore plus impressionnant, c'est que leur modèle 70B aurait surpassé le modèle de mélange de mélange de réseaux LLAMA 4 109b récemment publié (MOE).
Distillation et amplification itérée (IDA)
Au cœur de la percée de Deep Cogito se trouve une nouvelle approche de formation qu'ils appellent la distillation et l'amplification itérées (IDA). Cette méthode est décrite comme "une stratégie d'alignement évolutive et efficace pour la superintelligence générale en utilisant l'auto-amélioration itérative". Il est conçu pour dépasser les limites de la formation LLM traditionnelle, où l'intelligence du modèle frappe souvent un plafond défini par des modèles «surveillants» plus grands ou des conservateurs humains.
Le processus IDA tourne autour de deux étapes clés qui sont répétées à maintes reprises:
- Amplification: Cette étape utilise plus de puissance de calcul pour aider le modèle à proposer de meilleures solutions ou capacités, tout comme des techniques de raisonnement avancées.
- Distillation: Ici, le modèle internalise ces capacités améliorées, affinant ses paramètres.
Deep Cogito soutient que cela crée une "boucle de rétroaction positive", permettant à l'intelligence du modèle de croître plus directement avec les ressources de calcul et l'efficacité du processus IDA lui-même, plutôt que d'être limité par l'intelligence d'un surveillant.
La société souligne que des succès historiques comme Alphago, soulignant que le «raisonnement avancé et l'auto-amélioration itérative» étaient cruciaux. Ida, affirment-ils, apporte ces éléments dans la formation LLM. Ils vantent également l'efficacité de l'IDA, notant que leur équipe, bien que petite, a réussi à développer ces modèles en seulement 75 jours. Par rapport à d'autres méthodes telles que l'apprentissage du renforcement de la rétroaction humaine (RLHF) ou la distillation standard à partir de modèles plus grands, l'IDA offrait une meilleure évolutivité.
Comme preuve, Deep Cogito souligne comment leur modèle 70B surpasse à la fois LLAMA 3.3 70B (distillé à partir d'un modèle 405b) et Llama 4 Scout 109b (distillé à partir d'un modèle de paramètre 2T).
Capacités et performances des modèles de cogito profond
Les nouveaux modèles Cogito, qui s'appuient sur les points de contrôle LLAMA et QWEN, sont adaptés au codage, aux appels de fonction et aux applications agentiques. Une caractéristique remarquable est leur double fonctionnalité: "Chaque modèle peut répondre directement (LLM standard), ou auto-réflexion avant de répondre (comme les modèles de raisonnement)." Cela reflète les capacités vues dans des modèles comme Claude 3.5. Cependant, Deep Cogito mentionne qu'ils ne se sont pas concentrés sur des chaînes de raisonnement très longues, la priorisation de réponses plus rapides et l'efficacité des chaînes plus courtes distillées.
La société a partagé de vastes résultats de référence, en comparant leurs modèles COGITO avec des modèles ouverts de pointe équivalents dans les modes directs et de raisonnement. À travers une gamme de repères comme MMLU, MMLU-PRO, ARC, GSM8K et mathématiques, et à travers différentes tailles de modèles (3b, 8b, 14b, 32b, 70b), les modèles Cogito montrent généralement des améliorations de performances significatives. Par exemple, le modèle COGITO 70B marque 91,73% sur le MMLU en mode standard, une amélioration de + 6,40% par rapport à LLAMA 3.3 70B et 91,00% en mode de réflexion, une augmentation de 4,40% par rapport à la distill R1 profondel 70b. Les scores LiveBench reflètent également ces gains.
Voici des repères de modèles 14B pour une comparaison de taille moyenne:

Alors que Deep Cogito reconnaît que les repères ne capturent pas pleinement l'utilité du monde réel, ils restent confiants dans les performances pratiques de leurs modèles. Cette version est considérée comme un aperçu, la société indiquant qu'elle est "toujours dans les premiers stades de cette courbe de mise à l'échelle". Ils prévoient de publier des points de contrôle améliorés pour les tailles actuelles et d'introduire des modèles MOE plus grands (109b, 400b, 671b) dans les semaines et les mois à venir. Tous les futurs modèles seront également open-source.
Article connexe
AI가 역사적 언어를 모방하는 데 어려움을 겪는다
미국과 캐나다의 연구팀은 ChatGPT와 같은 대형 언어 모델이 광범위하고 비용이 많이 드는 사전 훈련 없이 역사적 관용구를 정확히 재현하는 데 어려움을 겪는다는 것을 발견했다. 이 문제는 AI를 사용해 찰스 디킨스의 미완성 마지막 소설을 완성하는 것과 같은 야심찬 프로젝트를 학술 및 엔터테인먼트 분야에서 실현하기 어렵게 만든다.연구팀은 역사적으로 정확한
억만장자들이 이번 주 AI 업데이트에서 일자리 자동화에 대해 논의하다
안녕하세요, TechCrunch의 AI 뉴스레터에 다시 오신 것을 환영합니다! 아직 구독하지 않으셨다면, 매주 수요일마다 받은 편지함으로 바로 배달받을 수 있도록 여기를 클릭해 구독하세요.지난주에는 잠시 쉬었지만, 그럴만한 이유가 있었습니다—중국의 AI 회사 DeepSeek의 갑작스러운 급부상 덕분에 AI 뉴스 사이클이 뜨거웠습니다. 정신없는 시간이였지만,
NotebookLM 앱 출시: AI 기반 지식 도구
NotebookLM 모바일 출시: 이제 Android와 iOS에서 만나는 AI 연구 보조 도구NotebookLM에 대한 여러분의 뜨거운 반응에 깊이 감사드립니다. 수백만 사용자가 복잡한 정보를 이해하는 필수 도구로 NotebookLM을 선택해주셨습니다. 하지만 가장 많이 받은 요청은 바로 "언제 모바일에서 사용할 수 있나
commentaires (25)
0/200
EricKing
20 avril 2025 00:00:00 UTC
Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡
0
EricRoberts
20 avril 2025 00:00:00 UTC
ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡
0
RichardThomas
19 avril 2025 00:00:00 UTC
Os LLMs da Deep Cogito são impressionantes, mas o app poderia ter uma UI melhor. É um pouco desajeitado navegar pelos diferentes tamanhos de modelo. Ainda assim, o desempenho é de primeira linha, especialmente com a tecnologia IDA. Vale a pena dar uma olhada se você gosta de IA e quer ver o que é possível com modelos de linguagem grandes! 🤖💡
0
WillMitchell
19 avril 2025 00:00:00 UTC
Los LLMs de Deep Cogito son impresionantes, pero la app podría tener una mejor UI. Es un poco torpe navegar entre los diferentes tamaños de modelo. Aún así, el rendimiento es de primera, especialmente con la tecnología IDA. Vale la pena echar un vistazo si te interesa la IA y quieres ver lo que es posible con modelos de lenguaje grandes! 🤖💡
0
GregoryCarter
21 avril 2025 00:00:00 UTC
LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡
0
JackHernández
19 avril 2025 00:00:00 UTC
Deep Cogito's LLMs are a game-changer! The performance boost over similar-sized models is impressive. I've been using the 70 billion parameter model for my research, and it's like having a super-smart assistant. Only downside? It's a bit resource-heavy. Still, totally worth it! 🚀
0
Deep Cogito, une entreprise basée à San Francisco, fait des vagues dans la communauté de l'IA avec sa dernière version de modèles ouverts en grande langue (LLMS). Ces modèles, qui se trouvent dans différentes tailles allant de 3 milliards à 70 milliards de paramètres, ne sont pas seulement un autre ensemble d'outils d'IA; Ils sont un pas audacieux vers ce que l'entreprise appelle la «superintelligence générale». Deep Cogito affirme que chacun de leurs modèles surpasse les principaux modèles ouverts de tailles similaires, y compris ceux de Llama, Deepseek et Qwen, dans la plupart des références standard. C'est tout à fait une affirmation, mais ce qui est encore plus impressionnant, c'est que leur modèle 70B aurait surpassé le modèle de mélange de mélange de réseaux LLAMA 4 109b récemment publié (MOE).
Distillation et amplification itérée (IDA)
Au cœur de la percée de Deep Cogito se trouve une nouvelle approche de formation qu'ils appellent la distillation et l'amplification itérées (IDA). Cette méthode est décrite comme "une stratégie d'alignement évolutive et efficace pour la superintelligence générale en utilisant l'auto-amélioration itérative". Il est conçu pour dépasser les limites de la formation LLM traditionnelle, où l'intelligence du modèle frappe souvent un plafond défini par des modèles «surveillants» plus grands ou des conservateurs humains.
Le processus IDA tourne autour de deux étapes clés qui sont répétées à maintes reprises:
- Amplification: Cette étape utilise plus de puissance de calcul pour aider le modèle à proposer de meilleures solutions ou capacités, tout comme des techniques de raisonnement avancées.
- Distillation: Ici, le modèle internalise ces capacités améliorées, affinant ses paramètres.
Deep Cogito soutient que cela crée une "boucle de rétroaction positive", permettant à l'intelligence du modèle de croître plus directement avec les ressources de calcul et l'efficacité du processus IDA lui-même, plutôt que d'être limité par l'intelligence d'un surveillant.
La société souligne que des succès historiques comme Alphago, soulignant que le «raisonnement avancé et l'auto-amélioration itérative» étaient cruciaux. Ida, affirment-ils, apporte ces éléments dans la formation LLM. Ils vantent également l'efficacité de l'IDA, notant que leur équipe, bien que petite, a réussi à développer ces modèles en seulement 75 jours. Par rapport à d'autres méthodes telles que l'apprentissage du renforcement de la rétroaction humaine (RLHF) ou la distillation standard à partir de modèles plus grands, l'IDA offrait une meilleure évolutivité.
Comme preuve, Deep Cogito souligne comment leur modèle 70B surpasse à la fois LLAMA 3.3 70B (distillé à partir d'un modèle 405b) et Llama 4 Scout 109b (distillé à partir d'un modèle de paramètre 2T).
Capacités et performances des modèles de cogito profond
Les nouveaux modèles Cogito, qui s'appuient sur les points de contrôle LLAMA et QWEN, sont adaptés au codage, aux appels de fonction et aux applications agentiques. Une caractéristique remarquable est leur double fonctionnalité: "Chaque modèle peut répondre directement (LLM standard), ou auto-réflexion avant de répondre (comme les modèles de raisonnement)." Cela reflète les capacités vues dans des modèles comme Claude 3.5. Cependant, Deep Cogito mentionne qu'ils ne se sont pas concentrés sur des chaînes de raisonnement très longues, la priorisation de réponses plus rapides et l'efficacité des chaînes plus courtes distillées.
La société a partagé de vastes résultats de référence, en comparant leurs modèles COGITO avec des modèles ouverts de pointe équivalents dans les modes directs et de raisonnement. À travers une gamme de repères comme MMLU, MMLU-PRO, ARC, GSM8K et mathématiques, et à travers différentes tailles de modèles (3b, 8b, 14b, 32b, 70b), les modèles Cogito montrent généralement des améliorations de performances significatives. Par exemple, le modèle COGITO 70B marque 91,73% sur le MMLU en mode standard, une amélioration de + 6,40% par rapport à LLAMA 3.3 70B et 91,00% en mode de réflexion, une augmentation de 4,40% par rapport à la distill R1 profondel 70b. Les scores LiveBench reflètent également ces gains.
Voici des repères de modèles 14B pour une comparaison de taille moyenne:
Alors que Deep Cogito reconnaît que les repères ne capturent pas pleinement l'utilité du monde réel, ils restent confiants dans les performances pratiques de leurs modèles. Cette version est considérée comme un aperçu, la société indiquant qu'elle est "toujours dans les premiers stades de cette courbe de mise à l'échelle". Ils prévoient de publier des points de contrôle améliorés pour les tailles actuelles et d'introduire des modèles MOE plus grands (109b, 400b, 671b) dans les semaines et les mois à venir. Tous les futurs modèles seront également open-source.




Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡




ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡




Os LLMs da Deep Cogito são impressionantes, mas o app poderia ter uma UI melhor. É um pouco desajeitado navegar pelos diferentes tamanhos de modelo. Ainda assim, o desempenho é de primeira linha, especialmente com a tecnologia IDA. Vale a pena dar uma olhada se você gosta de IA e quer ver o que é possível com modelos de linguagem grandes! 🤖💡




Los LLMs de Deep Cogito son impresionantes, pero la app podría tener una mejor UI. Es un poco torpe navegar entre los diferentes tamaños de modelo. Aún así, el rendimiento es de primera, especialmente con la tecnología IDA. Vale la pena echar un vistazo si te interesa la IA y quieres ver lo que es posible con modelos de lenguaje grandes! 🤖💡




LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡




Deep Cogito's LLMs are a game-changer! The performance boost over similar-sized models is impressive. I've been using the 70 billion parameter model for my research, and it's like having a super-smart assistant. Only downside? It's a bit resource-heavy. Still, totally worth it! 🚀












