Introducción al modelo
MiniMax-Text-01 es un modelo de lenguaje potente con un total de 456 mil millones de parámetros, de los cuales 45.9 mil millones se activan por token. Para aprovechar mejor las capacidades de contexto largo del modelo, MiniMax-Text-01 adopta una arquitectura híbrida que combina Lightning Attention, Softmax Attention y Mixture-of-Experts (MoE).
Capacidad de comprensión del lenguaje
A menudo hace juicios mal semánticos, lo que lleva a obvias desconexiones lógicas en las respuestas.
6.3
Alcance de cobertura de conocimiento
Posee el conocimiento central de las disciplinas convencionales, pero tiene una cobertura limitada de los campos interdisciplinarios de vanguardia.
8.5
Capacidad de razonamiento
Incapaz de mantener cadenas de razonamiento coherentes, a menudo causando causalidad invertida o errores de cálculo.
4.0