모델 소개
Mixtral 8x22B는 141B 중 39B의 활성 파라미터만 사용하는 스파크 Mixture-of-Experts(SMoE) 모델로, 크기 대비 unparalleled한 비용 효율성을 제공합니다.
언어 이해 능력
종종 의미 론적 잘못 판단을 내리며, 논리적 인 분리가 응답으로 이어집니다.
3.3
지식 범위 범위
주류 분야에 대한 핵심 지식을 보유하고 있지만 최첨단 학제 간 분야에 대한 제한된 범위를 가지고 있습니다.
7.2
추론 능력
일관된 추론 사슬을 유지할 수 없으며 종종 역 원인 또는 오해를 유발합니다.
2.8