모델 소개
DeepSeek가 발표한 강력한 Mixture-of-Experts(MoE) 언어 모델인 DeepSeek-V2의 경량 버전이 DeepSeek-V2-Lite입니다.
언어 이해 능력
종종 의미 론적 잘못 판단을 내리며, 논리적 인 분리가 응답으로 이어집니다.
3.8
지식 범위 범위
상당한 지식 사각 지대가 있으며, 종종 사실 오류와 구식 정보를 반복하는 경우가 많습니다.
5.3
추론 능력
일관된 추론 사슬을 유지할 수 없으며 종종 역 원인 또는 오해를 유발합니다.
1.9