option
Maison
Liste des modèles Al
Mixtral-8x22B-Instruct-v0.1

Mixtral-8x22B-Instruct-v0.1

Ajouter la comparaison
Ajouter la comparaison
Quantité de paramètre de modèle
141B
Quantité de paramètre de modèle
Organisation affiliée
Mistral AI
Organisation affiliée
Source ouverte
Type de licence
Temps de libération
17 avril 2024
Temps de libération
Introduction du modèle
Mixtral 8x22B est un modèle Mixture-of-Experts (SMoE) parcimonieux qui utilise seulement 39 milliards de paramètres actifs sur 141 milliards, offrant une efficacité économique sans précédent pour sa taille.
Faites glisser vers la gauche et la droite pour voir plus
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
4.1
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
A une base de connaissances encyclopédique de base, mais manque de profondeur et souffre d'informations obsolètes.
6.0
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
3.0
Comparaison du modèle
Modèle connexe
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 est un modèle de langue large avancé de 123 milliards de paramètres offrant des capacités exceptionnelles de raisonnement, de connaissance et de codage. Il étend Mistral-Large-Instruct-2407 avec une meilleure prise en charge du long contexte, du appel de fonction et des invites système.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 est un modèle de langue large avancé de 123 milliards de paramètres avec des capacités de raisonnement, de connaissance et de codage de pointe, qui étend Mistral-Large-Instruct-2407 avec de meilleures capacités de long contexte, d'appel de fonction et de prompt système.
Mistral-Small-Instruct-2409 Avec 22 milliards de paramètres, Mistral Small v24.09 offre aux clients un point intermédiaire pratique entre Mistral NeMo 12B et Mistral Large 2, fournissant une solution rentable pouvant être déployée sur diverses plateformes et environnements.
Mistral-Small-Instruct-2409 Avec 22 milliards de paramètres, Mistral Small v24.09 offre aux clients un point intermédiaire pratique entre Mistral NeMo 12B et Mistral Large 2, fournissant une solution rentable pouvant être déployée sur diverses plateformes et environnements.
Ministral-8B-Instruct-2410 Le modèle de langue Ministral-8B-Instruct-2410 est un modèle fine-tuné avec des instructions qui surpasse de manière significative les modèles existants de taille similaire, publié sous la licence de recherche Mistral.
Documents pertinents
AWS lance Bedrock AgentCore : Plate-forme open-source pour le développement d'agents d'IA d'entreprise Voici le contenu HTML réécrit :AWS lance Bedrock AgentCore pour les agents d'IA d'entreprise Amazon Web Services (AWS) mise beaucoup sur les agents d'IA qui transforment les opérations commerciales, e
L'enregistreur vocal Akaluli AI améliore la productivité et la concentration de manière efficace Dans nos environnements de travail hyperconnectés, il est de plus en plus difficile de rester concentré lors de conversations cruciales. L'enregistreur vocal Akaluli AI offre une solution innovante à
Spotify augmente le coût de l'abonnement Premium en dehors des États-Unis Quelques jours après avoir annoncé des résultats financiers décevants, Spotify augmente le prix de ses abonnements sur plusieurs marchés internationaux. Le géant du streaming a confirmé lundi que les
Cairn RPG : un système de table facile à apprendre pour les nouveaux joueurs Vous voulez une porte d'entrée passionnante vers les jeux de rôle sur table qui ne submergera pas les nouveaux venus ? Imaginez que vous organisiez une aventure entière avec dix débutants complets en
Meta dévoile le Llama 4, pionnier des capacités d'IA multimodale de nouvelle génération Le Llama 4 de Meta représente un saut quantique dans la technologie de l'IA multimodale, introduisant des capacités sans précédent qui redéfinissent ce qui est possible en matière d'intelligence artif
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR