Mistral-Large-Instruct-2411
123B
Quantité de paramètre de modèle
Mistral AI
Organisation affiliée
Source ouverte
Type de licence
18 novembre 2024
Temps de libération
Introduction du modèle
Mistral-Large-Instruct-2411 est un modèle de langue large avancé de 123 milliards de paramètres avec des capacités de raisonnement, de connaissance et de codage de pointe, qui étend Mistral-Large-Instruct-2407 avec de meilleures capacités de long contexte, d'appel de fonction et de prompt système.
Score complet
Dialogue du langage
Réserve de connaissances
Association de raisonnement
Calcul mathématique
Écriture de code
Commande suivante
Faites glisser vers la gauche et la droite pour voir plus


Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
5.6


Portée de la couverture des connaissances
Possède une connaissance fondamentale des disciplines traditionnelles, mais a une couverture limitée des champs interdisciplinaires de pointe.
8.7


Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
5.7
Comparaison du modèle
Mistral-Large-Instruct-2411 vs Qwen2.5-7B-Instruct
Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également une prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.
Mistral-Large-Instruct-2411 vs Gemini-2.5-Pro-Preview-05-06
Gemini 2.5 Pro est un modèle publié par l'équipe de recherche en intelligence artificielle de Google DeepMind, utilisant le numéro de version Gemini-2.5-Pro-Preview-05-06.
Mistral-Large-Instruct-2411 vs GPT-4o-mini-20240718
GPT-4o-mini est un modèle API produit par OpenAI, avec le numéro de version spécifique étant gpt-4o-mini-2024-07-18.
Mistral-Large-Instruct-2411 vs Doubao-1.5-thinking-pro-250415
Le nouveau modèle de réflexion profonde Doubao-1.5 se distingue dans des domaines professionnels tels que les mathématiques, la programmation, la raisonnement scientifique, ainsi que dans des tâches générales comme l'écriture créative. Il a atteint ou est proche du niveau supérieur de l'industrie sur plusieurs benchmarks autorisés tels que AIME 2024, Codeforces et GPQA.
Modèle connexe
Mistral-Large-Instruct-2411
Mistral-Large-Instruct-2411 est un modèle de langue large avancé de 123 milliards de paramètres offrant des capacités exceptionnelles de raisonnement, de connaissance et de codage. Il étend Mistral-Large-Instruct-2407 avec une meilleure prise en charge du long contexte, du appel de fonction et des invites système.
Mistral-Small-Instruct-2409
Avec 22 milliards de paramètres, Mistral Small v24.09 offre aux clients un point intermédiaire pratique entre Mistral NeMo 12B et Mistral Large 2, fournissant une solution rentable pouvant être déployée sur diverses plateformes et environnements.
Mistral-Small-Instruct-2409
Avec 22 milliards de paramètres, Mistral Small v24.09 offre aux clients un point intermédiaire pratique entre Mistral NeMo 12B et Mistral Large 2, fournissant une solution rentable pouvant être déployée sur diverses plateformes et environnements.
Ministral-8B-Instruct-2410
Le modèle de langue Ministral-8B-Instruct-2410 est un modèle fine-tuné avec des instructions qui surpasse de manière significative les modèles existants de taille similaire, publié sous la licence de recherche Mistral.
Mixtral-8x22B-Instruct-v0.1
Mixtral 8x22B est un modèle Mixture-of-Experts (SMoE) creux qui utilise seulement 39 milliards de paramètres actifs sur 141 milliards, offrant une efficacité coûteuse inégalée pour sa taille.
Documents pertinents
NoteGPT alimenté par l'IA transforme l'expérience d'apprentissage sur YouTube
Dans le monde trépidant d'aujourd'hui, un apprentissage efficace est essentiel. NoteGPT est une extension Chrome dynamique qui révolutionne la manière dont vous interagissez avec le contenu YouTube. E
Communauté syndicale et Google s’associent pour renforcer les compétences en IA des travailleurs britanniques
Note de l’éditeur : Google s’est associé à la Communauté syndicale au Royaume-Uni pour démontrer comment les compétences en IA peuvent améliorer les capacités des travailleurs de bureau et opérationne
Magi-1 Dévoile une Technologie Révolutionnaire d'IA Open-Source pour la Génération de Vidéos
Le domaine de la création vidéo alimentée par l'IA progresse rapidement, et Magi-1 marque une étape transformative. Ce modèle open-source innovant offre une précision inégalée dans le contrôle du timi
Éthique de l'IA : Naviguer entre les risques et les responsabilités dans le développement technologique
L'intelligence artificielle (IA) transforme les industries, de la santé à la logistique, offrant un immense potentiel de progrès. Cependant, son avancement rapide entraîne des risques significatifs né
Conception d'intérieur pilotée par l'IA : ReRoom AI transforme votre espace
Vous aspirez à rénover votre maison mais manquez d'expertise en design ou de fonds pour un professionnel ? L'intelligence artificielle redéfinit le design d'intérieur, offrant des solutions conviviale