Introdução ao modelo
Os modelos Llama 3.2 3B suportam comprimento de contexto de 128K tokens e são os mais avançados de sua categoria para casos de uso local, como resumo, execução de instruções e tarefas de reescrita, rodando localmente na borda.
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
3.1
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
4.2
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
3.0