DeepSeek-V3
671B
Quantité de paramètre de modèle
DeepSeek
Organisation affiliée
Source ouverte
Type de licence
26 décembre 2024
Temps de libération
Introduction du modèle
DeepSeek-V3 a obtenu des scores d'évaluation plus élevés que d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B, et son rendement équivaut à celui des meilleurs modèles propriétaires mondiaux comme GPT-4o et Claude-3.5-Sonnet.
Score complet
Dialogue du langage
Réserve de connaissances
Association de raisonnement
Calcul mathématique
Écriture de code
Commande suivante
Faites glisser vers la gauche et la droite pour voir plus


Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
6.8


Portée de la couverture des connaissances
Possède une connaissance fondamentale des disciplines traditionnelles, mais a une couverture limitée des champs interdisciplinaires de pointe.
8.8


Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
6.7
Comparaison du modèle
DeepSeek-V3 vs Qwen2.5-7B-Instruct
Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également une prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.
DeepSeek-V3 vs Gemini-2.5-Pro-Preview-05-06
Gemini 2.5 Pro est un modèle publié par l'équipe de recherche en intelligence artificielle de Google DeepMind, utilisant le numéro de version Gemini-2.5-Pro-Preview-05-06.
DeepSeek-V3 vs GPT-4o-mini-20240718
GPT-4o-mini est un modèle API produit par OpenAI, avec le numéro de version spécifique étant gpt-4o-mini-2024-07-18.
DeepSeek-V3 vs Doubao-1.5-thinking-pro-250415
Le nouveau modèle de réflexion profonde Doubao-1.5 se distingue dans des domaines professionnels tels que les mathématiques, la programmation, la raisonnement scientifique, ainsi que dans des tâches générales comme l'écriture créative. Il a atteint ou est proche du niveau supérieur de l'industrie sur plusieurs benchmarks autorisés tels que AIME 2024, Codeforces et GPQA.
Modèle connexe
DeepSeek-V2-Chat-0628
DeepSeek-V2 est un modèle de langue robuste de type Mixture-of-Experts (MoE), caractérisé par un coût d'entraînement économique et une inférence efficace. Il comprend un total de 236 milliards de paramètres, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42,5 % des coûts d'entraînement, réduisant la mémoire de cache KV de 93,3 % et augmentant la capacité maximale de génération jusqu'à 5,76 fois.
DeepSeek-V2.5
DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.
DeepSeek-V3-0324
DeepSeek-V3 surpasse d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des meilleurs modèles propriétaires comme GPT-4 et Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat
DeepSeek-V2, un modèle de langue Mixture-of-Experts (MoE) puissant présenté par DeepSeek, DeepSeek-V2-Lite est une version allégée de celui-ci.
DeepSeek-V2-Chat
DeepSeek-V2 est un modèle linguistique robuste du type Mixture-of-Experts (MoE), caractérisé par un entraînement économique et une inférence efficace. Il comporte 236 milliards de paramètres au total, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42.5 % des coûts d'entraînement, réduisant la mémoire cache KV de 93.3 % et augmentant le débit maximal de génération de 5.76 fois.
Documents pertinents
DeepSeek-V3 Dévoilé : Comment la Conception d'IA Consciente du Matériel Réduit les Coûts et Améliore les Performances
DeepSeek-V3 : Un Bond Économique dans le Développement de l'IAL'industrie de l'IA est à un tournant. Alors que les grands modèles de langage (LLMs) deviennent plus puissants, leurs besoins en calcul o
Maîtriser les outils d'édition IA de Google Photos pour des résultats époustouflants
Google Photos excelle dans le stockage et l'organisation des photos, mais ses fonctionnalités d'édition basées sur l'IA restent souvent sous-exploitées. Ce guide révèle les capacités cachées de Google
Voyage Piloté par l'IA : Planifiez Votre Évasion Parfaite avec Facilité
Organiser des vacances peut sembler intimidant, avec des recherches et des avis interminables transformant l'excitation en stress. La planification de voyage alimentée par l'IA change cela, rendant le
NoteGPT alimenté par l'IA transforme l'expérience d'apprentissage sur YouTube
Dans le monde trépidant d'aujourd'hui, un apprentissage efficace est essentiel. NoteGPT est une extension Chrome dynamique qui révolutionne la manière dont vous interagissez avec le contenu YouTube. E
Communauté syndicale et Google s’associent pour renforcer les compétences en IA des travailleurs britanniques
Note de l’éditeur : Google s’est associé à la Communauté syndicale au Royaume-Uni pour démontrer comment les compétences en IA peuvent améliorer les capacités des travailleurs de bureau et opérationne