Introducción al modelo
Mixtral 8x22B es un modelo Mixture-of-Experts (SMoE) disperso que utiliza solo 39 mil millones de parámetros activos de un total de 141 mil millones, ofreciendo una eficiencia de costo sin precedentes para su tamaño.
Capacidad de comprensión del lenguaje
A menudo hace juicios mal semánticos, lo que lleva a obvias desconexiones lógicas en las respuestas.
4.1
Alcance de cobertura de conocimiento
Tiene una base básica de conocimiento enciclopédico, pero carece de profundidad y sufre información anticuada.
6.0
Capacidad de razonamiento
Incapaz de mantener cadenas de razonamiento coherentes, a menudo causando causalidad invertida o errores de cálculo.
3.0