Introduction du modèle
Qwen 2.5 Max est un modèle MoE (Mixture-of-Experts) de grande taille entraîné avec plus de 20 billions de tokens de données pré-entraînement et un schéma de post-entraînement minutieusement conçu.
Capacité de compréhension du langage
Capable de comprendre des contextes complexes et de générer des phrases logiquement cohérentes, bien que parfois hors du contrôle de la tonalité.
7.5
Portée de la couverture des connaissances
Possède une connaissance fondamentale des disciplines traditionnelles, mais a une couverture limitée des champs interdisciplinaires de pointe.
8.8
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
6.8