Qwen3-32B (Thinking)
32B
Quantité de paramètre de modèle
Alibaba
Organisation affiliée
Source ouverte
Type de licence
29 avril 2025
Temps de libération
Introduction du modèle
Qwen3 est la dernière génération de modèles de langue de grande taille dans la série Qwen, offrant un ensemble complet de modèles denses et experts mixtes (MoE).
Score complet
Dialogue du langage
Réserve de connaissances
Association de raisonnement
Calcul mathématique
Écriture de code
Commande suivante
Faites glisser vers la gauche et la droite pour voir plus


Capacité de compréhension du langage
Capable de comprendre des contextes complexes et de générer des phrases logiquement cohérentes, bien que parfois hors du contrôle de la tonalité.
7.7


Portée de la couverture des connaissances
Possède une connaissance fondamentale des disciplines traditionnelles, mais a une couverture limitée des champs interdisciplinaires de pointe.
8.3


Capacité de raisonnement
Capable de créer des cadres logiques à plusieurs niveaux, atteignant une précision de plus de 99% dans la modélisation mathématique complexe.
9.0
Comparaison du modèle
Qwen3-32B (Thinking) vs Qwen2.5-7B-Instruct
Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également une prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.
Qwen3-32B (Thinking) vs Gemini-2.5-Pro-Preview-05-06
Gemini 2.5 Pro est un modèle publié par l'équipe de recherche en intelligence artificielle de Google DeepMind, utilisant le numéro de version Gemini-2.5-Pro-Preview-05-06.
Qwen3-32B (Thinking) vs GPT-4o-mini-20240718
GPT-4o-mini est un modèle API produit par OpenAI, avec le numéro de version spécifique étant gpt-4o-mini-2024-07-18.
Qwen3-32B (Thinking) vs Doubao-1.5-thinking-pro-250415
Le nouveau modèle de réflexion profonde Doubao-1.5 se distingue dans des domaines professionnels tels que les mathématiques, la programmation, la raisonnement scientifique, ainsi que dans des tâches générales comme l'écriture créative. Il a atteint ou est proche du niveau supérieur de l'industrie sur plusieurs benchmarks autorisés tels que AIME 2024, Codeforces et GPQA.
Modèle connexe
Qwen2.5-7B-Instruct
Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également une prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.
Qwen1.5-72B-Chat
Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation de type decoder-only avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et possède des capacités améliorées en matière de multilinguisme et de modèles de conversation, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles disposent de prompts système pour le jeu de rôles, et le code supporte une implémentation native dans transformers.
Qwen1.5-7B-Chat
Qwen1.5 est la version bêta de Qwen2, conservant une architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et des mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et possède des capacités améliorées pour les modèles multilingues et de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles incluent des invites système pour le jeu de rôle, et le code prend en charge une implémentation native dans transformers.
Qwen1.5-14B-Chat
Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Il offre neuf tailles de modèles et possède des capacités améliorées en matière de langues multiples et de modèles de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles ont activé les invites de système pour le jeu de rôles, et le code prend en charge une implémentation native dans transformers.
Qwen-Max-0428
Qwen-Max est un modèle API produit par Alibaba. Il s'agit de la version 0428
Documents pertinents
Anthropic améliore Claude avec des intégrations d'outils fluides et une recherche avancée
Anthropic a dévoilé de nouvelles « Intégrations » pour Claude, permettant à l'IA de se connecter directement à vos outils de travail préférés. L'entreprise a également introduit une fonctionnalité amé
Conception UX alimentée par l'IA : Façonner l'avenir de l'expérience utilisateur
Le domaine de la conception de l'expérience utilisateur (UX) connaît une transformation profonde, alimentée par l'évolution rapide de l'intelligence artificielle (IA). Loin d'être une vision lointaine
Éducation alimentée par l'IA : Révolutionner l'apprentissage à tous les niveaux
L'intelligence artificielle (IA) transforme l'éducation en fournissant des outils innovants pour engager les élèves et personnaliser l'apprentissage. Cet article examine comment les éducateurs peuvent
AI vs. Écrivains humains : Les machines peuvent-elles surpasser la créativité ?
Dans une ère axée sur le contenu, le débat sur la capacité de l'intelligence artificielle (AI) à surpasser les écrivains humains s'intensifie. L'AI offre rapidité et économies de coûts, mais les humai
Les idoles IA révolutionnent le divertissement avec des performances virtuelles
Le paysage du divertissement se transforme avec l'essor des idoles IA, des performeurs virtuels alimentés par l'intelligence artificielle. Ces stars numériques captivent les publics mondiaux grâce à u