Introduction du modèle
MiniMax-Text-01 est un modèle de 456 milliards de paramètres combinant Lightning Attention, Softmax Attention et Mixture-of-Experts (MoE). Il utilise des stratégies parallèles avancées pour atteindre un contexte d'entraînement de 1 million de tokens et peut traiter jusqu'à 4 millions de tokens pendant l'inférence, montrant une performance de premier plan.
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
6.8
Portée de la couverture des connaissances
Possède une connaissance fondamentale des disciplines traditionnelles, mais a une couverture limitée des champs interdisciplinaires de pointe.
8.5
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
5.8