Introduction du modèle
Le modèle de langue large Mixtral-8x7B (LLM) est un modèle pré-entraîné génératif de type Sparse Mixture of Experts. Le Mistral-8x7B surpasse Llama 2 70B sur la plupart des benchmarks que nous avons testés.
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
3.6
Portée de la couverture des connaissances
A des angles morts de connaissances importantes, montrant souvent des erreurs factuelles et répétant des informations obsolètes.
5.0
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
2.8