option
Maison
Liste des modèles Al
Mixtral-8x7B-Instruct-v0.1

Mixtral-8x7B-Instruct-v0.1

Ajouter la comparaison
Ajouter la comparaison
Quantité de paramètre de modèle
47B
Quantité de paramètre de modèle
Organisation affiliée
Mistral AI
Organisation affiliée
Source ouverte
Type de licence
Temps de libération
11 décembre 2023
Temps de libération

Introduction du modèle
Le modèle de langue large Mixtral-8x7B (LLM) est un modèle pré-entraîné génératif de type Mélange d'Experts Sparse. Le Mistral-8x7B surpasse Llama 2 70B sur la plupart des benchmarks que nous avons testés.
Faites glisser vers la gauche et la droite pour voir plus
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
3.7
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
A des angles morts de connaissances importantes, montrant souvent des erreurs factuelles et répétant des informations obsolètes.
5.0
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
2.5
Modèle connexe
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 est un modèle de langue large avancé de 123 milliards de paramètres offrant des capacités exceptionnelles de raisonnement, de connaissance et de codage. Il étend Mistral-Large-Instruct-2407 avec une meilleure prise en charge du long contexte, du appel de fonction et des invites système.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 est un modèle de langue large avancé de 123 milliards de paramètres avec des capacités de raisonnement, de connaissance et de codage de pointe, qui étend Mistral-Large-Instruct-2407 avec de meilleures capacités de long contexte, d'appel de fonction et de prompt système.
Mistral-Small-Instruct-2409 Avec 22 milliards de paramètres, Mistral Small v24.09 offre aux clients un point intermédiaire pratique entre Mistral NeMo 12B et Mistral Large 2, fournissant une solution rentable pouvant être déployée sur diverses plateformes et environnements.
Mistral-Small-Instruct-2409 Avec 22 milliards de paramètres, Mistral Small v24.09 offre aux clients un point intermédiaire pratique entre Mistral NeMo 12B et Mistral Large 2, fournissant une solution rentable pouvant être déployée sur diverses plateformes et environnements.
Ministral-8B-Instruct-2410 Le modèle de langue Ministral-8B-Instruct-2410 est un modèle fine-tuné avec des instructions qui surpasse de manière significative les modèles existants de taille similaire, publié sous la licence de recherche Mistral.
Documents pertinents
TechCrunch Sessions : AI offre 325 $ d'économies avec 4 jours restants Le temps presse ! Réservez votre place à TechCrunch Sessions : AI dans les quatre prochains jours pour économiser jusqu'à 325 $. Cette offre exclusive expire le 2 mars à 23h59 PT.Entrez en contact ave
Equals : l'outil tableur piloté par l'IA simplifie l'analyse et l'automatisation des données Vous luttez avec des formules de tableur complexes et le traitement manuel des données ? Imaginez une solution intelligente où l'analyse de données devient sans effort grâce à l'automatisation, fournissant des informations exploitables via des comman
Des agents IA sans code permettent à n'importe qui de créer instantanément des vidéos POV virales L'ère numérique exige des contenus convaincants qui captivent le public, notamment grâce au pouvoir immersif de la narration vidéo en point de vue. Découvrez comment la combinaison de l'intelligence a
Microsoft fusionne les fonctionnalités Windows et Xbox pour une expérience de jeu PC sur appareils portables Microsoft s'est associé à Asus pour dévoiler deux appareils de jeu portatifs révolutionnaires ROG Xbox Ally, introduisant une interface Xbox en plein écran innovante spécialement optimisée pour le jeu portable. Suite à des engagements antérieurs visa
L'AI Charm Show dévoile les secrets de la beauté et de la confiance en soi Bienvenue à AI Charm Show, où nous explorons la synergie fascinante entre l'intelligence artificielle et le magnétisme personnel. Au-delà de la beauté superficielle, nous nous intéressons aux fondemen
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR