Introdução ao modelo
Llama3.1 são multilíngues e têm uma comprida consideravelmente maior capacidade de contexto de 128K, uso de ferramentas de ponta e capacidades gerais de raciocínio mais fortes.
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
3.3
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
6.3
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
2.4