모델 소개
Mixtral 8x22B는 141B 중 39B의 활성 파라미터만 사용하는 스파크 Mixture-of-Experts(SMoE) 모델로, 크기 대비 unparalleled한 비용 효율성을 제공합니다.
언어 이해 능력
종종 의미 론적 잘못 판단을 내리며, 논리적 인 분리가 응답으로 이어집니다.
4.1
지식 범위 범위
기본 백과 사전 지식 기반이 있지만 깊이가 부족하고 구식 정보로 고통받습니다.
6.0
추론 능력
일관된 추론 사슬을 유지할 수 없으며 종종 역 원인 또는 오해를 유발합니다.
3.0