Deep Cogito의 LLMS는 IDA를 사용하여 유사한 크기의 모델보다 우수합니다
샌프란시스코에 본사를 둔 Deep Cogito는 최신 오픈 대규모 언어 모델(LLMs) 출시로 AI 커뮤니티에서 큰 반향을 일으키고 있습니다. 30억에서 700억 매개변수에 이르는 다양한 크기의 이 모델들은 단순한 AI 도구가 아니라, 회사가 "일반 초지능"이라고 부르는 대담한 발걸음입니다. Deep Cogito는 각 모델이 LLAMA, DeepSeek, Qwen의 유사한 크기의 선도적인 오픈 모델들을 대부분의 표준 벤치마크에서 능가한다고 주장합니다. 이는 상당한 주장인데, 더 인상적인 것은 그들의 70B 모델이 최근 출시된 Llama 4 109B Mixture-of-Experts (MoE) 모델을 능가했다는 보고입니다.
반복 증류 및 증폭 (IDA)
Deep Cogito의 획기적인 발전의 핵심에는 그들이 반복 증류 및 증폭(IDA)이라고 부르는 새로운 훈련 접근 방식이 있습니다. 이 방법은 "반복적 자기 개선을 통해 일반 초지능을 위한 확장 가능하고 효율적인 정렬 전략"으로 설명됩니다. 이는 전통적인 LLM 훈련의 한계를 넘어, 모델의 지능이 종종 더 큰 "감독자" 모델이나 인간 큐레이터에 의해 정의된 한계에 부딪히는 문제를 해결하도록 설계되었습니다.
IDA 프로세스는 반복적으로 수행되는 두 가지 주요 단계를 중심으로 이루어집니다:
- 증폭: 이 단계에서는 더 많은 컴퓨팅 파워를 사용하여 모델이 더 나은 솔루션이나 능력을 도출하도록 돕습니다. 이는 고급 추론 기술과 유사합니다.
- 증류: 여기서 모델은 이러한 향상된 능력을 내재화하여 매개변수를 정제합니다.
Deep Cogito는 이것이 "긍정적인 피드백 루프"를 만들어, 모델의 지능이 감독자의 지능에 의해 제한되지 않고 컴퓨팅 자원과 IDA 프로세스 자체의 효율성에 따라 더 직접적으로 성장할 수 있다고 주장합니다.
회사는 AlphaGo의 역사적 성공을 예로 들며, "고급 추론과 반복적 자기 개선"이 중요했다고 강조합니다. IDA는 이러한 요소를 LLM 훈련에 도입한다고 주장합니다. 또한 IDA의 효율성을 강조하며, 소규모 팀이 약 75일 만에 이 모델들을 개발했다고 밝혔습니다. 인간 피드백을 통한 강화 학습(RLHF)이나 더 큰 모델로부터의 표준 증류와 같은 다른 방법과 비교했을 때, IDA는 더 나은 확장성을 제공한다고 합니다.
증거로, Deep Cogito는 그들의 70B 모델이 Llama 3.3 70B(405B 모델에서 증류)와 Llama 4 Scout 109B(2T 매개변수 모델에서 증류)를 모두 능가한다고 강조합니다.
Deep Cogito 모델의 능력과 성능
Llama와 Qwen 체크포인트를 기반으로 구축된 새로운 Cogito 모델은 코딩, 함수 호출, 에이전트 애플리케이션에 맞춰져 있습니다. 두드러진 특징은 이중 기능성입니다: "각 모델은 직접 응답(표준 LLM)하거나 응답 전에 자기 성찰(추론 모델과 유사)할 수 있습니다." 이는 Claude 3.5와 같은 모델에서 볼 수 있는 능력을 반영합니다. 그러나 Deep Cogito는 매우 긴 추론 체인에 초점을 맞추지 않고, 더 빠른 응답과 더 짧은 체인의 증류 효율성을 우선시했다고 언급했습니다.
회사는 Cogito 모델을 직접 및 추론 모드에서 크기가 비슷한 최첨단 오픈 모델들과 비교한 광범위한 벤치마크 결과를 공유했습니다. MMLU, MMLU-Pro, ARC, GSM8K, MATH와 같은 다양한 벤치마크와 3B, 8B, 14B, 32B, 70B의 다양한 모델 크기에서 Cogito 모델은 일반적으로 상당한 성능 향상을 보여줍니다. 예를 들어, Cogito 70B 모델은 표준 모드에서 MMLU에서 91.73%를 기록하며 Llama 3.3 70B보다 +6.40% 향상되었고, 사고 모드에서는 91.00%로 Deepseek R1 Distill 70B보다 +4.40% 향상되었습니다. Livebench 점수도 이러한 성과를 반영합니다.
14B 모델의 벤치마크는 중간 크기 비교를 위해 다음과 같습니다:

Deep Cogito는 벤치마크가 실세계 유용성을 완전히 포착하지 않는다고 인정하면서도, 모델의 실제 성능에 자신감을 나타냅니다. 이번 출시는 미리보기 단계로 간주되며, 회사는 "이 스케일링 곡선의 초기 단계에 있다"고 밝혔습니다. 그들은 현재 크기에 대한 개선된 체크포인트를 출시하고, 앞으로 몇 주와 몇 달 안에 더 큰 MoE 모델(109B, 400B, 671B)을 소개할 계획입니다. 모든 미래 모델도 오픈소스로 제공될 것입니다.
관련 기사
미드저니, 크리에이티브 콘텐츠를 위한 최첨단 AI 동영상 생성기 공개
미드저니의 AI 비디오 생성 혁신Midjourney가 첫 번째 AI 동영상 생성 도구를 공개하며, 유명한 이미지 제작 기능을 넘어서는 중요한 확장을 이루었습니다. 초기 버전에서는 사용자가 업로드한 이미지와 플랫폼에서 생성한 아트워크를 모두 5초 분량의 짧은 애니메이션 클립으로 변환할 수 있으며, 향후 야심찬 개선 계획을 가지고 있습니다.핵심 특징 및 기능정
트럼프, 중국 추월 경쟁에서 규제보다 AI 성장을 우선시하다
트럼프 행정부는 수요일에 획기적인 AI 행동 계획을 발표하며 바이든 행정부의 위험 회피적인 AI 정책에서 결정적인 단절을 선언했습니다. 이 야심찬 청사진은 공격적인 인프라 개발, 전면적인 규제 철폐, 강화된 국가 안보 조치, 인공지능 분야에서 중국과의 전략적 경쟁을 우선순위에 두고 있습니다.이러한 정책 변화는 특히 에너지 사용 및 환경 규제와 관련하여 광범
YouTube, Veo 3 AI 동영상 도구를 쇼트 플랫폼에 직접 통합합니다.
올여름, YouTube 숏에 Veo 3 AI 동영상 모델이 등장합니다.YouTube CEO 닐 모한은 칸 라이언즈 기조연설에서 플랫폼의 최첨단 Veo 3 AI 동영상 생성 기술이 올여름 말 YouTube Shorts에서 첫 선을 보일 예정이라고 밝혔습니다. 이는 Veo 3가 AI 지원 콘텐츠 제작에 혁신을 가져올 것이라고 설명한 앨리슨 존슨의 논평에 따른
의견 (27)
0/200
RoyWhite
2025년 8월 13일 오후 6시 0분 59초 GMT+09:00
Deep Cogito's LLMs sound like a game-changer! Outperforming models of similar size with IDA is no small feat. Curious to see how these stack up in real-world tasks. 🚀
0
PaulThomas
2025년 8월 7일 오전 4시 1분 0초 GMT+09:00
Super cool to see Deep Cogito pushing the boundaries with their LLMs! 😎 Those parameter sizes are wild—wonder how they stack up in real-world tasks?
0
GregoryCarter
2025년 4월 21일 오후 12시 16분 16초 GMT+09:00
LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡
0
EricRoberts
2025년 4월 20일 오후 1시 40분 17초 GMT+09:00
ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡
0
WillieAnderson
2025년 4월 20일 오후 1시 9분 3초 GMT+09:00
딥 코기토의 LLM은 정말 혁신적이에요! 비슷한 크기의 모델과 비교해도 성능 향상이 놀랍습니다. IDA 접근법이 큰 차이를 만듭니다. 유일한 단점은 학습 곡선인데, 한번 익숙해지면 문제없어요! 🚀
0
EricKing
2025년 4월 20일 오전 7시 12분 37초 GMT+09:00
Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡
0
샌프란시스코에 본사를 둔 Deep Cogito는 최신 오픈 대규모 언어 모델(LLMs) 출시로 AI 커뮤니티에서 큰 반향을 일으키고 있습니다. 30억에서 700억 매개변수에 이르는 다양한 크기의 이 모델들은 단순한 AI 도구가 아니라, 회사가 "일반 초지능"이라고 부르는 대담한 발걸음입니다. Deep Cogito는 각 모델이 LLAMA, DeepSeek, Qwen의 유사한 크기의 선도적인 오픈 모델들을 대부분의 표준 벤치마크에서 능가한다고 주장합니다. 이는 상당한 주장인데, 더 인상적인 것은 그들의 70B 모델이 최근 출시된 Llama 4 109B Mixture-of-Experts (MoE) 모델을 능가했다는 보고입니다.
반복 증류 및 증폭 (IDA)
Deep Cogito의 획기적인 발전의 핵심에는 그들이 반복 증류 및 증폭(IDA)이라고 부르는 새로운 훈련 접근 방식이 있습니다. 이 방법은 "반복적 자기 개선을 통해 일반 초지능을 위한 확장 가능하고 효율적인 정렬 전략"으로 설명됩니다. 이는 전통적인 LLM 훈련의 한계를 넘어, 모델의 지능이 종종 더 큰 "감독자" 모델이나 인간 큐레이터에 의해 정의된 한계에 부딪히는 문제를 해결하도록 설계되었습니다.
IDA 프로세스는 반복적으로 수행되는 두 가지 주요 단계를 중심으로 이루어집니다:
- 증폭: 이 단계에서는 더 많은 컴퓨팅 파워를 사용하여 모델이 더 나은 솔루션이나 능력을 도출하도록 돕습니다. 이는 고급 추론 기술과 유사합니다.
- 증류: 여기서 모델은 이러한 향상된 능력을 내재화하여 매개변수를 정제합니다.
Deep Cogito는 이것이 "긍정적인 피드백 루프"를 만들어, 모델의 지능이 감독자의 지능에 의해 제한되지 않고 컴퓨팅 자원과 IDA 프로세스 자체의 효율성에 따라 더 직접적으로 성장할 수 있다고 주장합니다.
회사는 AlphaGo의 역사적 성공을 예로 들며, "고급 추론과 반복적 자기 개선"이 중요했다고 강조합니다. IDA는 이러한 요소를 LLM 훈련에 도입한다고 주장합니다. 또한 IDA의 효율성을 강조하며, 소규모 팀이 약 75일 만에 이 모델들을 개발했다고 밝혔습니다. 인간 피드백을 통한 강화 학습(RLHF)이나 더 큰 모델로부터의 표준 증류와 같은 다른 방법과 비교했을 때, IDA는 더 나은 확장성을 제공한다고 합니다.
증거로, Deep Cogito는 그들의 70B 모델이 Llama 3.3 70B(405B 모델에서 증류)와 Llama 4 Scout 109B(2T 매개변수 모델에서 증류)를 모두 능가한다고 강조합니다.
Deep Cogito 모델의 능력과 성능
Llama와 Qwen 체크포인트를 기반으로 구축된 새로운 Cogito 모델은 코딩, 함수 호출, 에이전트 애플리케이션에 맞춰져 있습니다. 두드러진 특징은 이중 기능성입니다: "각 모델은 직접 응답(표준 LLM)하거나 응답 전에 자기 성찰(추론 모델과 유사)할 수 있습니다." 이는 Claude 3.5와 같은 모델에서 볼 수 있는 능력을 반영합니다. 그러나 Deep Cogito는 매우 긴 추론 체인에 초점을 맞추지 않고, 더 빠른 응답과 더 짧은 체인의 증류 효율성을 우선시했다고 언급했습니다.
회사는 Cogito 모델을 직접 및 추론 모드에서 크기가 비슷한 최첨단 오픈 모델들과 비교한 광범위한 벤치마크 결과를 공유했습니다. MMLU, MMLU-Pro, ARC, GSM8K, MATH와 같은 다양한 벤치마크와 3B, 8B, 14B, 32B, 70B의 다양한 모델 크기에서 Cogito 모델은 일반적으로 상당한 성능 향상을 보여줍니다. 예를 들어, Cogito 70B 모델은 표준 모드에서 MMLU에서 91.73%를 기록하며 Llama 3.3 70B보다 +6.40% 향상되었고, 사고 모드에서는 91.00%로 Deepseek R1 Distill 70B보다 +4.40% 향상되었습니다. Livebench 점수도 이러한 성과를 반영합니다.
14B 모델의 벤치마크는 중간 크기 비교를 위해 다음과 같습니다:
Deep Cogito는 벤치마크가 실세계 유용성을 완전히 포착하지 않는다고 인정하면서도, 모델의 실제 성능에 자신감을 나타냅니다. 이번 출시는 미리보기 단계로 간주되며, 회사는 "이 스케일링 곡선의 초기 단계에 있다"고 밝혔습니다. 그들은 현재 크기에 대한 개선된 체크포인트를 출시하고, 앞으로 몇 주와 몇 달 안에 더 큰 MoE 모델(109B, 400B, 671B)을 소개할 계획입니다. 모든 미래 모델도 오픈소스로 제공될 것입니다.




Deep Cogito's LLMs sound like a game-changer! Outperforming models of similar size with IDA is no small feat. Curious to see how these stack up in real-world tasks. 🚀




Super cool to see Deep Cogito pushing the boundaries with their LLMs! 😎 Those parameter sizes are wild—wonder how they stack up in real-world tasks?




LLM от Deep Cogito впечатляют, но приложение могло бы иметь лучший UI. Навигация по разным размерам моделей немного неуклюжая. Тем не менее, производительность на высшем уровне, особенно с технологией IDA. Обязательно стоит посмотреть, если вы интересуетесь ИИ и хотите увидеть, что возможно с большими языковыми моделями! 🤖💡




ディープコギトのLLMは印象的ですが、アプリのUIがもう少し改善されると良いですね。モデルサイズをナビゲートするのが少しぎこちないです。それでも、パフォーマンスは最高で、特にIDAテクノロジーとの組み合わせが素晴らしいです。AIに興味があるなら、大規模言語モデルの可能性を見る価値がありますよ!🤖💡




딥 코기토의 LLM은 정말 혁신적이에요! 비슷한 크기의 모델과 비교해도 성능 향상이 놀랍습니다. IDA 접근법이 큰 차이를 만듭니다. 유일한 단점은 학습 곡선인데, 한번 익숙해지면 문제없어요! 🚀




Deep Cogito's LLMs are impressive, but the app could use a better UI. It's a bit clunky to navigate through the different model sizes. Still, the performance is top-notch, especially with the IDA tech. Definitely worth a look if you're into AI and want to see what's possible with large language models! 🤖💡












