モデルの紹介
Llama 3.2 3B モデルは128Kトークンのコンテキスト長をサポートしており、要約、指示フォローやリライトなどのオンデバイス用途において、エッジでローカルに実行されるクラス最高の性能を発揮します。
言語理解能力
多くの場合、セマンティックな誤判断を行い、応答の明らかな論理的切断につながります。
2.9
知識カバレッジの範囲
重要な知識の盲点があり、多くの場合、事実上の誤りを示し、時代遅れの情報を繰り返します。
6.8
推論能力
コヒーレントな推論チェーンを維持することができず、多くの場合、反転した因果関係や誤算を引き起こします。
2.2