Die LLMs von Deep Cogito übertreffen ähnliche Modelle mit ähnlicher Größe mit IDA
18. April 2025
JoseAdams
90
Deep Cogito, ein in San Francisco ansässiges Unternehmen, macht in der KI-Community Wellen mit der neuesten Veröffentlichung von Open Language Models (LLMs). Diese Modelle, die in verschiedenen Größen von 3 bis 70 Milliarden Parametern liegen, sind nicht nur ein weiterer Satz von KI -Tools. Sie sind ein mutiger Schritt in Richtung dessen, was das Unternehmen als "allgemeine Superintelligenz" bezeichnet. Deep Cogito behauptet, dass jedes ihrer Modelle die führenden offenen Modelle ähnlicher Größen, einschließlich derer von Lama, Deepseek und Qwen, über die meisten Standard -Benchmarks übertrifft. Es ist eine ziemliche Behauptung, aber noch beeindruckender ist, dass ihr 70B-Modell Berichten zufolge das kürzlich veröffentlichte LAMA 4 109B-Mischungsmischungsmodell (MOE) übertrifft.
Iterierte Destillation und Verstärkung (IDA)
Das Herzstück von Deep Cogitos Durchbruch ist ein neuer Trainingsansatz, den sie als iterierte Destillation und Verstärkung (IDA) bezeichnen. Diese Methode wird als "skalierbare und effiziente Ausrichtungsstrategie für die allgemeine Superintelligenz unter Verwendung iterativer Selbstverbesserung" beschrieben. Es wurde entwickelt, um die Grenzen des traditionellen LLM -Trainings zu überschreiten, bei dem die Intelligenz des Modells häufig auf eine Decke trifft, die von größeren "Aufseher" -Modellen oder menschlichen Kuratoren definiert wird.
Der IDA -Prozess dreht sich um zwei wichtige Schritte, die immer wieder wiederholt werden:
- Verstärkung: Dieser Schritt verwendet mehr Rechenleistung, um dem Modell bessere Lösungen oder Funktionen zu erstellen, ähnlich wie erweiterte Argumentationstechniken.
- Destillation: Hier verinnerlichen das Modell diese verbesserten Fähigkeiten und verfeinern seine Parameter.
Deep Cogito argumentiert, dass dies eine "positive Rückkopplungsschleife" erzeugt, die es der Intelligenz des Modells ermöglicht, direkter mit den Rechenressourcen und der Effizienz des IDA -Prozesses selbst zu wachsen, anstatt durch die Intelligenz eines Aufsehers begrenzt zu werden.
Das Unternehmen verweist auf historische Erfolge wie Alphago und betonte, dass "fortgeschrittenes Denken und iterativer Selbstverbesserung von entscheidender Bedeutung waren. Sie behaupten, dass Ida diese Elemente in das LLM -Training einbringt. Sie bewerben sich auch für die Effizienz von IDA und stellten fest, dass ihr Team, obwohl es klein ist, diese Modelle in nur 75 Tagen entwickelt hat. Im Vergleich zu anderen Methoden wie Verstärkungslernen aus menschlichem Feedback (RLHF) oder Standarddestillation aus größeren Modellen soll IDA eine bessere Skalierbarkeit bieten.
Als Beweis zeigt Deep Cogito, wie ihr 70B -Modell sowohl Lama 3.3 70b (aus einem 405B -Modell destilliert) als auch Lama 4 Scout 109b (destilliert aus einem 2T -Parametermodell) übertrifft.
Fähigkeiten und Leistung von tiefen Cogito -Modellen
Die neuen Cogito -Modelle, die auf Lama- und Qwen -Checkpoints aufbauen, sind auf Codierung, Funktionsaufruf und agierende Anwendungen zugeschnitten. Eine herausragende Funktion ist ihre doppelte Funktionalität: "Jedes Modell kann direkt (Standard LLM) oder selbst reflektieren, bevor sie beantwortet werden (wie Argumentationsmodelle)." Dies spiegelt Funktionen wider, die in Modellen wie Claude 3.5 zu sehen sind. Deep Cogito erwähnt jedoch, dass sie sich jedoch nicht auf sehr lange Argumentationsketten konzentriert haben, was schnellere Antworten und die Effizienz der Destillation kürzerer Ketten priorisieren.
Das Unternehmen hat umfangreiche Benchmark-Ergebnisse geteilt und seine Cogito-Modelle mit offenen Modellen der Größenäquivalente im Direkt- und Argumentationsmodi verglichen. In einer Reihe von Benchmarks wie MMLU, MMLU-PRO, ARC, GSM8K und MATH sowie über verschiedene Modellgrößen (3B, 8B, 14B, 32B, 70B) zeigen die Cogito-Modelle im Allgemeinen signifikante Leistungsverbesserungen. Zum Beispiel bewertet das Cogito 70B -Modell im Standardmodus 91,73% für MMLU, eine Verbesserung von +6,40% gegenüber LAMA 3,3 70B und 91,00% im Denkmodus, A +4,40% Schub um Deepseek R1 Destill 70b. LiveBench -Scores spiegeln auch diese Gewinne wider.
Hier sind Benchmarks von 14B-Modellen für einen mittelgroßen Vergleich:

Während Deep Cogito anerkennt, dass Benchmarks den realen Nutzen nicht vollständig erfassen, bleiben sie von der praktischen Leistung ihrer Modelle zuversichtlich. Diese Veröffentlichung gilt als Vorschau, wobei das Unternehmen feststellt, dass sie sich "noch in den frühen Phasen dieser Skalierungskurve" befinden. Sie planen, verbesserte Kontrollpunkte für die aktuellen Größen zu veröffentlichen und in den kommenden Wochen und Monaten größere MOE -Modelle (109B, 400B, 671B) einzuführen. Alle zukünftigen Modelle werden ebenfalls Open-Source sein.
Verwandter Artikel
Microsoft 365 Copilot이 향상된 검색, 이미지 및 노트북 기능으로 재 설계 한 공개
Microsoft는 비즈니스 요구를 충족 시키도록 설계된 Microsoft 365 Copilot 앱에 대한 새로운 테이크를 출시하고 일반 Copilot의 소비자 친화적 인 기능과 더 밀접하게 통합되었습니다. 업데이트 된 버전은 AI 기반 검색을 자랑하며 OPE를 활용하는 새로운 '생성'기능을 자랑합니다.
AI 벤치마킹에 대한 논쟁은 Pokémon에 도달했습니다
사랑하는 포켓몬의 세계조차도 AI 벤치 마크를 둘러싼 드라마에 면역이되지 않습니다. X의 최근 바이러스 성 게시물은 Google의 최신 Gemini 모델이 Classic Pokémon Video Game Trilogy에서 Anthropic의 주요 클로드 모델을 능가했다고 주장하면서 상당히 화제를 불러 일으켰습니다. 포스트에 따르면, Gemini
2025 년 4 월의 상위 10 개 AI 마케팅 도구
인공 지능 (AI)은 왼쪽과 오른쪽 산업을 흔들고 있으며 마케팅도 예외는 아닙니다. 소규모 신생 기업에서 대기업에 이르기까지 비즈니스는 브랜드 가시성을 높이고 성장을 주도하기 위해 AI 마케팅 도구를 점점 더 많이 전환하고 있습니다. 이러한 도구를 비즈니스에 통합합니다
Kommentare (20)
0/200
EricKing
19. April 2025 22:12:37 GMT
Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡
0
EricRoberts
20. April 2025 04:40:17 GMT
ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡
0
RichardThomas
19. April 2025 03:58:42 GMT
Os LLMs da Deep Cogito são impressionantes, mas o app poderia ter uma UI melhor. É um pouco desajeitado navegar pelos diferentes tamanhos de modelo. Ainda assim, o desempenho é de primeira linha, especialmente com a tecnologia IDA. Vale a pena dar uma olhada se você gosta de IA e quer ver o que é possível com modelos de linguagem grandes! 🤖💡
0
WillMitchell
18. April 2025 20:01:50 GMT
Los LLMs de Deep Cogito son impresionantes, pero la app podría tener una mejor UI. Es un poco torpe navegar entre los diferentes tamaños de modelo. Aún así, el rendimiento es de primera, especialmente con la tecnología IDA. Vale la pena echar un vistazo si te interesa la IA y quieres ver lo que es posible con modelos de lenguaje grandes! 🤖💡
0
GregoryCarter
21. April 2025 03:16:16 GMT
LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡
0
JackHernández
19. April 2025 00:12:00 GMT
Deep Cogito's LLMs are a game-changer! The performance boost over similar-sized models is impressive. I've been using the 70 billion parameter model for my research, and it's like having a super-smart assistant. Only downside? It's a bit resource-heavy. Still, totally worth it! 🚀
0






Deep Cogito, ein in San Francisco ansässiges Unternehmen, macht in der KI-Community Wellen mit der neuesten Veröffentlichung von Open Language Models (LLMs). Diese Modelle, die in verschiedenen Größen von 3 bis 70 Milliarden Parametern liegen, sind nicht nur ein weiterer Satz von KI -Tools. Sie sind ein mutiger Schritt in Richtung dessen, was das Unternehmen als "allgemeine Superintelligenz" bezeichnet. Deep Cogito behauptet, dass jedes ihrer Modelle die führenden offenen Modelle ähnlicher Größen, einschließlich derer von Lama, Deepseek und Qwen, über die meisten Standard -Benchmarks übertrifft. Es ist eine ziemliche Behauptung, aber noch beeindruckender ist, dass ihr 70B-Modell Berichten zufolge das kürzlich veröffentlichte LAMA 4 109B-Mischungsmischungsmodell (MOE) übertrifft.
Iterierte Destillation und Verstärkung (IDA)
Das Herzstück von Deep Cogitos Durchbruch ist ein neuer Trainingsansatz, den sie als iterierte Destillation und Verstärkung (IDA) bezeichnen. Diese Methode wird als "skalierbare und effiziente Ausrichtungsstrategie für die allgemeine Superintelligenz unter Verwendung iterativer Selbstverbesserung" beschrieben. Es wurde entwickelt, um die Grenzen des traditionellen LLM -Trainings zu überschreiten, bei dem die Intelligenz des Modells häufig auf eine Decke trifft, die von größeren "Aufseher" -Modellen oder menschlichen Kuratoren definiert wird.
Der IDA -Prozess dreht sich um zwei wichtige Schritte, die immer wieder wiederholt werden:
- Verstärkung: Dieser Schritt verwendet mehr Rechenleistung, um dem Modell bessere Lösungen oder Funktionen zu erstellen, ähnlich wie erweiterte Argumentationstechniken.
- Destillation: Hier verinnerlichen das Modell diese verbesserten Fähigkeiten und verfeinern seine Parameter.
Deep Cogito argumentiert, dass dies eine "positive Rückkopplungsschleife" erzeugt, die es der Intelligenz des Modells ermöglicht, direkter mit den Rechenressourcen und der Effizienz des IDA -Prozesses selbst zu wachsen, anstatt durch die Intelligenz eines Aufsehers begrenzt zu werden.
Das Unternehmen verweist auf historische Erfolge wie Alphago und betonte, dass "fortgeschrittenes Denken und iterativer Selbstverbesserung von entscheidender Bedeutung waren. Sie behaupten, dass Ida diese Elemente in das LLM -Training einbringt. Sie bewerben sich auch für die Effizienz von IDA und stellten fest, dass ihr Team, obwohl es klein ist, diese Modelle in nur 75 Tagen entwickelt hat. Im Vergleich zu anderen Methoden wie Verstärkungslernen aus menschlichem Feedback (RLHF) oder Standarddestillation aus größeren Modellen soll IDA eine bessere Skalierbarkeit bieten.
Als Beweis zeigt Deep Cogito, wie ihr 70B -Modell sowohl Lama 3.3 70b (aus einem 405B -Modell destilliert) als auch Lama 4 Scout 109b (destilliert aus einem 2T -Parametermodell) übertrifft.
Fähigkeiten und Leistung von tiefen Cogito -Modellen
Die neuen Cogito -Modelle, die auf Lama- und Qwen -Checkpoints aufbauen, sind auf Codierung, Funktionsaufruf und agierende Anwendungen zugeschnitten. Eine herausragende Funktion ist ihre doppelte Funktionalität: "Jedes Modell kann direkt (Standard LLM) oder selbst reflektieren, bevor sie beantwortet werden (wie Argumentationsmodelle)." Dies spiegelt Funktionen wider, die in Modellen wie Claude 3.5 zu sehen sind. Deep Cogito erwähnt jedoch, dass sie sich jedoch nicht auf sehr lange Argumentationsketten konzentriert haben, was schnellere Antworten und die Effizienz der Destillation kürzerer Ketten priorisieren.
Das Unternehmen hat umfangreiche Benchmark-Ergebnisse geteilt und seine Cogito-Modelle mit offenen Modellen der Größenäquivalente im Direkt- und Argumentationsmodi verglichen. In einer Reihe von Benchmarks wie MMLU, MMLU-PRO, ARC, GSM8K und MATH sowie über verschiedene Modellgrößen (3B, 8B, 14B, 32B, 70B) zeigen die Cogito-Modelle im Allgemeinen signifikante Leistungsverbesserungen. Zum Beispiel bewertet das Cogito 70B -Modell im Standardmodus 91,73% für MMLU, eine Verbesserung von +6,40% gegenüber LAMA 3,3 70B und 91,00% im Denkmodus, A +4,40% Schub um Deepseek R1 Destill 70b. LiveBench -Scores spiegeln auch diese Gewinne wider.
Hier sind Benchmarks von 14B-Modellen für einen mittelgroßen Vergleich:
Während Deep Cogito anerkennt, dass Benchmarks den realen Nutzen nicht vollständig erfassen, bleiben sie von der praktischen Leistung ihrer Modelle zuversichtlich. Diese Veröffentlichung gilt als Vorschau, wobei das Unternehmen feststellt, dass sie sich "noch in den frühen Phasen dieser Skalierungskurve" befinden. Sie planen, verbesserte Kontrollpunkte für die aktuellen Größen zu veröffentlichen und in den kommenden Wochen und Monaten größere MOE -Modelle (109B, 400B, 671B) einzuführen. Alle zukünftigen Modelle werden ebenfalls Open-Source sein.




Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡




ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡




Os LLMs da Deep Cogito são impressionantes, mas o app poderia ter uma UI melhor. É um pouco desajeitado navegar pelos diferentes tamanhos de modelo. Ainda assim, o desempenho é de primeira linha, especialmente com a tecnologia IDA. Vale a pena dar uma olhada se você gosta de IA e quer ver o que é possível com modelos de linguagem grandes! 🤖💡




Los LLMs de Deep Cogito son impresionantes, pero la app podría tener una mejor UI. Es un poco torpe navegar entre los diferentes tamaños de modelo. Aún así, el rendimiento es de primera, especialmente con la tecnología IDA. Vale la pena echar un vistazo si te interesa la IA y quieres ver lo que es posible con modelos de lenguaje grandes! 🤖💡




LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡




Deep Cogito's LLMs are a game-changer! The performance boost over similar-sized models is impressive. I've been using the 70 billion parameter model for my research, and it's like having a super-smart assistant. Only downside? It's a bit resource-heavy. Still, totally worth it! 🚀












