モデルの紹介
Mixtral 8x22B はスparseなMixture-of-Experts(SMoE)モデルで、141B のパラメータのうち、わずか39B のアクティブなパラメータしか使用せず、そのサイズに対するコスト効率は比類なきものです。
言語理解能力
多くの場合、セマンティックな誤判断を行い、応答の明らかな論理的切断につながります。
4.1
知識カバレッジの範囲
基本的な百科事典の知識ベースがありますが、深さがなく、時代遅れの情報に苦しんでいます。
6.0
推論能力
コヒーレントな推論チェーンを維持することができず、多くの場合、反転した因果関係や誤算を引き起こします。
3.0