Introducción al modelo
El modelo de Lenguaje Grande Mixtral-8x7B (LLM) es un modelo generativo preentrenado de Expertos Esparcidos Mixtos. El Mistral-8x7B supera a Llama 2 70B en la mayoría de los benchmarks que probamos.
Capacidad de comprensión del lenguaje
A menudo hace juicios mal semánticos, lo que lleva a obvias desconexiones lógicas en las respuestas.
3.7
Alcance de cobertura de conocimiento
Tiene puntos ciegos de conocimiento significativo, a menudo que muestran errores objetivos y repitiendo información obsoleta.
5.0
Capacidad de razonamiento
Incapaz de mantener cadenas de razonamiento coherentes, a menudo causando causalidad invertida o errores de cálculo.
2.5