Option
Heim
Nachricht
Die LLMs von Deep Cogito übertreffen ähnliche Modelle mit ähnlicher Größe mit IDA

Die LLMs von Deep Cogito übertreffen ähnliche Modelle mit ähnlicher Größe mit IDA

18. April 2025
135

Deep Cogito, ein in San Francisco ansässiges Unternehmen, macht in der KI-Community Wellen mit der neuesten Veröffentlichung von Open Language Models (LLMs). Diese Modelle, die in verschiedenen Größen von 3 bis 70 Milliarden Parametern liegen, sind nicht nur ein weiterer Satz von KI -Tools. Sie sind ein mutiger Schritt in Richtung dessen, was das Unternehmen als "allgemeine Superintelligenz" bezeichnet. Deep Cogito behauptet, dass jedes ihrer Modelle die führenden offenen Modelle ähnlicher Größen, einschließlich derer von Lama, Deepseek und Qwen, über die meisten Standard -Benchmarks übertrifft. Es ist eine ziemliche Behauptung, aber noch beeindruckender ist, dass ihr 70B-Modell Berichten zufolge das kürzlich veröffentlichte LAMA 4 109B-Mischungsmischungsmodell (MOE) übertrifft.

Iterierte Destillation und Verstärkung (IDA)

Das Herzstück von Deep Cogitos Durchbruch ist ein neuer Trainingsansatz, den sie als iterierte Destillation und Verstärkung (IDA) bezeichnen. Diese Methode wird als "skalierbare und effiziente Ausrichtungsstrategie für die allgemeine Superintelligenz unter Verwendung iterativer Selbstverbesserung" beschrieben. Es wurde entwickelt, um die Grenzen des traditionellen LLM -Trainings zu überschreiten, bei dem die Intelligenz des Modells häufig auf eine Decke trifft, die von größeren "Aufseher" -Modellen oder menschlichen Kuratoren definiert wird.

Der IDA -Prozess dreht sich um zwei wichtige Schritte, die immer wieder wiederholt werden:

  • Verstärkung: Dieser Schritt verwendet mehr Rechenleistung, um dem Modell bessere Lösungen oder Funktionen zu erstellen, ähnlich wie erweiterte Argumentationstechniken.
  • Destillation: Hier verinnerlichen das Modell diese verbesserten Fähigkeiten und verfeinern seine Parameter.

Deep Cogito argumentiert, dass dies eine "positive Rückkopplungsschleife" erzeugt, die es der Intelligenz des Modells ermöglicht, direkter mit den Rechenressourcen und der Effizienz des IDA -Prozesses selbst zu wachsen, anstatt durch die Intelligenz eines Aufsehers begrenzt zu werden.

Das Unternehmen verweist auf historische Erfolge wie Alphago und betonte, dass "fortgeschrittenes Denken und iterativer Selbstverbesserung von entscheidender Bedeutung waren. Sie behaupten, dass Ida diese Elemente in das LLM -Training einbringt. Sie bewerben sich auch für die Effizienz von IDA und stellten fest, dass ihr Team, obwohl es klein ist, diese Modelle in nur 75 Tagen entwickelt hat. Im Vergleich zu anderen Methoden wie Verstärkungslernen aus menschlichem Feedback (RLHF) oder Standarddestillation aus größeren Modellen soll IDA eine bessere Skalierbarkeit bieten.

Als Beweis zeigt Deep Cogito, wie ihr 70B -Modell sowohl Lama 3.3 70b (aus einem 405B -Modell destilliert) als auch Lama 4 Scout 109b (destilliert aus einem 2T -Parametermodell) übertrifft.

Fähigkeiten und Leistung von tiefen Cogito -Modellen

Die neuen Cogito -Modelle, die auf Lama- und Qwen -Checkpoints aufbauen, sind auf Codierung, Funktionsaufruf und agierende Anwendungen zugeschnitten. Eine herausragende Funktion ist ihre doppelte Funktionalität: "Jedes Modell kann direkt (Standard LLM) oder selbst reflektieren, bevor sie beantwortet werden (wie Argumentationsmodelle)." Dies spiegelt Funktionen wider, die in Modellen wie Claude 3.5 zu sehen sind. Deep Cogito erwähnt jedoch, dass sie sich jedoch nicht auf sehr lange Argumentationsketten konzentriert haben, was schnellere Antworten und die Effizienz der Destillation kürzerer Ketten priorisieren.

Das Unternehmen hat umfangreiche Benchmark-Ergebnisse geteilt und seine Cogito-Modelle mit offenen Modellen der Größenäquivalente im Direkt- und Argumentationsmodi verglichen. In einer Reihe von Benchmarks wie MMLU, MMLU-PRO, ARC, GSM8K und MATH sowie über verschiedene Modellgrößen (3B, 8B, 14B, 32B, 70B) zeigen die Cogito-Modelle im Allgemeinen signifikante Leistungsverbesserungen. Zum Beispiel bewertet das Cogito 70B -Modell im Standardmodus 91,73% für MMLU, eine Verbesserung von +6,40% gegenüber LAMA 3,3 70B und 91,00% im Denkmodus, A +4,40% Schub um Deepseek R1 Destill 70b. LiveBench -Scores spiegeln auch diese Gewinne wider.

Hier sind Benchmarks von 14B-Modellen für einen mittelgroßen Vergleich:

Benchmarks von 14B -Modellen

Während Deep Cogito anerkennt, dass Benchmarks den realen Nutzen nicht vollständig erfassen, bleiben sie von der praktischen Leistung ihrer Modelle zuversichtlich. Diese Veröffentlichung gilt als Vorschau, wobei das Unternehmen feststellt, dass sie sich "noch in den frühen Phasen dieser Skalierungskurve" befinden. Sie planen, verbesserte Kontrollpunkte für die aktuellen Größen zu veröffentlichen und in den kommenden Wochen und Monaten größere MOE -Modelle (109B, 400B, 671B) einzuführen. Alle zukünftigen Modelle werden ebenfalls Open-Source sein.

Verwandter Artikel
AI가 역사적 언어를 모방하는 데 어려움을 겪는다 AI가 역사적 언어를 모방하는 데 어려움을 겪는다 미국과 캐나다의 연구팀은 ChatGPT와 같은 대형 언어 모델이 광범위하고 비용이 많이 드는 사전 훈련 없이 역사적 관용구를 정확히 재현하는 데 어려움을 겪는다는 것을 발견했다. 이 문제는 AI를 사용해 찰스 디킨스의 미완성 마지막 소설을 완성하는 것과 같은 야심찬 프로젝트를 학술 및 엔터테인먼트 분야에서 실현하기 어렵게 만든다.연구팀은 역사적으로 정확한
억만장자들이 이번 주 AI 업데이트에서 일자리 자동화에 대해 논의하다 억만장자들이 이번 주 AI 업데이트에서 일자리 자동화에 대해 논의하다 안녕하세요, TechCrunch의 AI 뉴스레터에 다시 오신 것을 환영합니다! 아직 구독하지 않으셨다면, 매주 수요일마다 받은 편지함으로 바로 배달받을 수 있도록 여기를 클릭해 구독하세요.지난주에는 잠시 쉬었지만, 그럴만한 이유가 있었습니다—중국의 AI 회사 DeepSeek의 갑작스러운 급부상 덕분에 AI 뉴스 사이클이 뜨거웠습니다. 정신없는 시간이였지만,
NotebookLM 앱 출시: AI 기반 지식 도구 NotebookLM 앱 출시: AI 기반 지식 도구 NotebookLM 모바일 출시: 이제 Android와 iOS에서 만나는 AI 연구 보조 도구NotebookLM에 대한 여러분의 뜨거운 반응에 깊이 감사드립니다. 수백만 사용자가 복잡한 정보를 이해하는 필수 도구로 NotebookLM을 선택해주셨습니다. 하지만 가장 많이 받은 요청은 바로 "언제 모바일에서 사용할 수 있나
Kommentare (25)
0/200
EricKing
EricKing 20. April 2025 00:00:00 GMT

Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡

EricRoberts
EricRoberts 20. April 2025 00:00:00 GMT

ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡

RichardThomas
RichardThomas 19. April 2025 00:00:00 GMT

Os LLMs da Deep Cogito são impressionantes, mas o app poderia ter uma UI melhor. É um pouco desajeitado navegar pelos diferentes tamanhos de modelo. Ainda assim, o desempenho é de primeira linha, especialmente com a tecnologia IDA. Vale a pena dar uma olhada se você gosta de IA e quer ver o que é possível com modelos de linguagem grandes! 🤖💡

WillMitchell
WillMitchell 19. April 2025 00:00:00 GMT

Los LLMs de Deep Cogito son impresionantes, pero la app podría tener una mejor UI. Es un poco torpe navegar entre los diferentes tamaños de modelo. Aún así, el rendimiento es de primera, especialmente con la tecnología IDA. Vale la pena echar un vistazo si te interesa la IA y quieres ver lo que es posible con modelos de lenguaje grandes! 🤖💡

GregoryCarter
GregoryCarter 21. April 2025 00:00:00 GMT

LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡

JackHernández
JackHernández 19. April 2025 00:00:00 GMT

Deep Cogito's LLMs are a game-changer! The performance boost over similar-sized models is impressive. I've been using the 70 billion parameter model for my research, and it's like having a super-smart assistant. Only downside? It's a bit resource-heavy. Still, totally worth it! 🚀

Zurück nach oben
OR