Introducción al modelo
MiniMax-Text-01 es un modelo de 456 mil millones de parámetros que combina Atención Ligera, Atención Softmax y Mixtura de Expertos (MoE). Utiliza estrategias paralelas avanzadas para lograr un contexto de entrenamiento de 1 millón de tokens y puede manejar hasta 4 millones de tokens durante la inferencia, mostrando un rendimiento de primer nivel.
Capacidad de comprensión del lenguaje
A menudo hace juicios mal semánticos, lo que lleva a obvias desconexiones lógicas en las respuestas.
6.8
Alcance de cobertura de conocimiento
Posee el conocimiento central de las disciplinas convencionales, pero tiene una cobertura limitada de los campos interdisciplinarios de vanguardia.
8.5
Capacidad de razonamiento
Incapaz de mantener cadenas de razonamiento coherentes, a menudo causando causalidad invertida o errores de cálculo.
5.8