Introduction du modèle
Les modèles Llama 4 sont des modèles de langage autoregressifs qui utilisent une architecture 'mixture-of-experts' (MoE) et intègrent une fusion précoce pour la multimodalité native.
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
5.3
Portée de la couverture des connaissances
Possède une connaissance fondamentale des disciplines traditionnelles, mais a une couverture limitée des champs interdisciplinaires de pointe.
8.8
Capacité de raisonnement
Peut effectuer un raisonnement logique avec plus de trois étapes, bien que l'efficacité baisse lors de la gestion des relations non linéaires.
8.5