モデルの紹介
Mixtral 8x22B は、141B のパラメータのうち、39B のアクティブなパラメータのみを使用するスparseなMixture-of-Experts(SMoE)モデルであり、そのサイズに対するコスト効率は比類なきものです。
言語理解能力
多くの場合、セマンティックな誤判断を行い、応答の明らかな論理的切断につながります。
3.3
知識カバレッジの範囲
主流の分野の中心的な知識を持っていますが、最先端の学際的な分野の報道は限られています。
7.2
推論能力
コヒーレントな推論チェーンを維持することができず、多くの場合、反転した因果関係や誤算を引き起こします。
2.8