Introdução ao modelo
O modelo de Linguagem Grande Mixtral-8x7B (LLM) é um modelo pré-treinado gerador de Especialistas Esparsos Misturados. O Mistral-8x7B supera o Llama 2 70B em a maioria dos benchmarks que testamos.
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
3.7
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
5.0
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
2.5