Introduction du modèle
Mixtral 8x22B est un modèle Mixture-of-Experts (SMoE) parcimonieux qui utilise seulement 39 milliards de paramètres actifs sur 141 milliards, offrant une efficacité économique sans précédent pour sa taille.
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
4.1
Portée de la couverture des connaissances
A une base de connaissances encyclopédique de base, mais manque de profondeur et souffre d'informations obsolètes.
6.0
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
3.0