モデルの紹介
Llama 3.2 3B モデルは128Kトークンのコンテキスト長をサポートしており、要約、指示フォローやリライトなどのオンデバイス利用において、エッジでローカルに実行されるタスクでクラス最高の性能を発揮します。
言語理解能力
多くの場合、セマンティックな誤判断を行い、応答の明らかな論理的切断につながります。
3.1
知識カバレッジの範囲
重要な知識の盲点があり、多くの場合、事実上の誤りを示し、時代遅れの情報を繰り返します。
4.2
推論能力
コヒーレントな推論チェーンを維持することができず、多くの場合、反転した因果関係や誤算を引き起こします。
3.0