Introducción al modelo
Los modelos Llama 3.2 3B admiten una longitud de contexto de 128K tokens y son líderes en su clase para casos de uso en dispositivo, como la creación de resúmenes, el seguimiento de instrucciones y tareas de reescritura ejecutadas localmente en el borde.
Capacidad de comprensión del lenguaje
A menudo hace juicios mal semánticos, lo que lleva a obvias desconexiones lógicas en las respuestas.
2.9
Alcance de cobertura de conocimiento
Tiene puntos ciegos de conocimiento significativo, a menudo que muestran errores objetivos y repitiendo información obsoleta.
6.8
Capacidad de razonamiento
Incapaz de mantener cadenas de razonamiento coherentes, a menudo causando causalidad invertida o errores de cálculo.
2.2