option
Quantité de paramètre de modèle
N/A
Quantité de paramètre de modèle
Organisation affiliée
Alibaba
Organisation affiliée
Source fermée
Type de licence
Temps de libération
28 avril 2024
Temps de libération

Introduction du modèle
Qwen-Max est un modèle API produit par Alibaba. Il s'agit de la version 0428
Faites glisser vers la gauche et la droite pour voir plus
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
6.2
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
Possède une connaissance fondamentale des disciplines traditionnelles, mais a une couverture limitée des champs interdisciplinaires de pointe.
7.6
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
5.2
Modèle connexe
Qwen3-235B-A22B-Instruct-2507 Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant une suite complète de modèles denses et de modèles à mélange d'experts (MoE).
Qwen3-235B-A22B-Thinking-2507 Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant une suite complète de modèles denses et de modèles à mélange d'experts (MoE).
Qwen2.5-7B-Instruct Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également une prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.
Qwen3-32B (Thinking) Qwen3 est la dernière génération de modèles de langue de grande taille dans la série Qwen, offrant un ensemble complet de modèles denses et experts mixtes (MoE).
Qwen1.5-72B-Chat Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation de type decoder-only avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et possède des capacités améliorées en matière de multilinguisme et de modèles de conversation, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles disposent de prompts système pour le jeu de rôles, et le code supporte une implémentation native dans transformers.
Documents pertinents
Proton dévoile un chatbot d'IA axé sur la protection de la vie privée dans un contexte de préoccupations croissantes en matière de données Proton, réputé pour son service sécurisé Proton Mail, a lancé Lumo - un assistant IA révolutionnaire conçu avec la protection de la vie privée au cœur de ses préoccupations. Cette nouvelle offre perme
L'IA Gemini de Google dévoile une fonction de conversion de photos en vidéos La dernière mise à jour Gemini de Google introduit une conversion révolutionnaire des photos en vidéos grâce au modèle Veo 3. Cette fonction innovante transforme les images statiques en clips vidéo de
AI Video Mastery : Améliorer le contenu viral grâce à des techniques d'édition intelligentes Dans le paysage numérique actuel, le contenu vidéo domine les espaces en ligne. Cependant, il ne suffit pas de produire des vidéos ; celles-ci doivent captiver les spectateurs grâce à des visuels conv
Examen du Samsung Galaxy AI : Avantages dans la vie réelle et cas d'utilisation au quotidien La suite Galaxy AI de Samsung a suscité beaucoup d'enthousiasme dans l'industrie technologique, mais apporte-t-elle des innovations significatives ou se contente-t-elle de reconditionner des fonctionn
Les graphiques conceptuels expliqués : Guide de l'IA avec des exemples simples Les graphes conceptuels se sont imposés comme un cadre fondamental de représentation des connaissances dans le domaine de l'intelligence artificielle, offrant un moyen visuellement intuitif mais mathé
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR