option
Maison
Liste des modèles Al
MiniMax-Text-01
Quantité de paramètre de modèle
456B
Quantité de paramètre de modèle
Organisation affiliée
MiniMax
Organisation affiliée
Source ouverte
Type de licence
Temps de libération
15 janvier 2025
Temps de libération
Introduction du modèle
MiniMax-Text-01 est un modèle de 456 milliards de paramètres combinant Lightning Attention, Softmax Attention et Mixture-of-Experts (MoE). Il utilise des stratégies parallèles avancées pour atteindre un contexte d'entraînement de 1 million de tokens et peut traiter jusqu'à 4 millions de tokens pendant l'inférence, montrant une performance de premier plan.
Faites glisser vers la gauche et la droite pour voir plus
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
6.8
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
Possède une connaissance fondamentale des disciplines traditionnelles, mais a une couverture limitée des champs interdisciplinaires de pointe.
8.5
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
5.8
Comparaison du modèle
Modèle connexe
MiniMax-Text-01 MiniMax-Text-01 est un modèle linguistique puissant avec un total de 456 milliards de paramètres, dont 45,9 milliards sont activés par jeton. Pour mieux exploiter les capacités de contexte long du modèle, MiniMax-Text-01 adopte une architecture hybride qui combine l'Attention Lightning, l'Attention Softmax et le Mixture-of-Experts (MoE).
MiniMax-M1-80k Le premier modèle de raisonnement à attention hybride à grande échelle et à poids ouvert au monde, publié par Minimax.
abab6.5 abab6.5 est un modèle API produit par MiniMax, la version est abab6.5. La série abab6.5 est un grand modèle de langue de type Mixture of Experts (MoE) avec un trillion de paramètres. Le modèle abab6.5 convient pour des scénarios complexes, tels que les calculs applicatifs, les calculs scientifiques et autres scénarios similaires. Le modèle abab6.5s convient pour des scénarios généraux.
abab6.5s-chat abab6.5 est un modèle API produit par MiniMax, avec le numéro de version abab6.5. La série abab6.5 est un grand modèle de langue Mixture of Experts (MoE) avec des billions de paramètres. abab6.5 convient aux scénarios complexes, tels que les calculs d'applications, les calculs scientifiques et d'autres situations similaires. abab6.5s convient aux scénarios généraux.
MiniMax-Text-01 MiniMax-Text-01 est un modèle de langue puissant doté de 456 milliards de paramètres au total, dont 45,9 milliards sont activés par jeton. Pour mieux exploiter les capacités de traitement du long contexte du modèle, MiniMax-Text-01 adopte une architecture hybride combinant Lightning Attention, Softmax Attention et Mixture-of-Experts (MoE).
Documents pertinents
AWS lance Bedrock AgentCore : Plate-forme open-source pour le développement d'agents d'IA d'entreprise Voici le contenu HTML réécrit :AWS lance Bedrock AgentCore pour les agents d'IA d'entreprise Amazon Web Services (AWS) mise beaucoup sur les agents d'IA qui transforment les opérations commerciales, e
L'enregistreur vocal Akaluli AI améliore la productivité et la concentration de manière efficace Dans nos environnements de travail hyperconnectés, il est de plus en plus difficile de rester concentré lors de conversations cruciales. L'enregistreur vocal Akaluli AI offre une solution innovante à
Spotify augmente le coût de l'abonnement Premium en dehors des États-Unis Quelques jours après avoir annoncé des résultats financiers décevants, Spotify augmente le prix de ses abonnements sur plusieurs marchés internationaux. Le géant du streaming a confirmé lundi que les
Cairn RPG : un système de table facile à apprendre pour les nouveaux joueurs Vous voulez une porte d'entrée passionnante vers les jeux de rôle sur table qui ne submergera pas les nouveaux venus ? Imaginez que vous organisiez une aventure entière avec dix débutants complets en
Meta dévoile le Llama 4, pionnier des capacités d'IA multimodale de nouvelle génération Le Llama 4 de Meta représente un saut quantique dans la technologie de l'IA multimodale, introduisant des capacités sans précédent qui redéfinissent ce qui est possible en matière d'intelligence artif
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR