option
Maison
Liste des modèles Al
DeepSeek-V2-Chat-0628
Quantité de paramètre de modèle
236B
Quantité de paramètre de modèle
Organisation affiliée
DeepSeek
Organisation affiliée
Source ouverte
Type de licence
Temps de libération
6 mai 2024
Temps de libération

Introduction du modèle
DeepSeek-V2 est un modèle de langue robuste de type Mixture-of-Experts (MoE), caractérisé par un coût d'entraînement économique et une inférence efficace. Il comprend un total de 236 milliards de paramètres, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42,5 % des coûts d'entraînement, réduisant la mémoire de cache KV de 93,3 % et augmentant la capacité maximale de génération jusqu'à 5,76 fois.
Faites glisser vers la gauche et la droite pour voir plus
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
4.6
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
Possède une connaissance fondamentale des disciplines traditionnelles, mais a une couverture limitée des champs interdisciplinaires de pointe.
7.8
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
4.7
Modèle connexe
DeepSeek-V3-0324 DeepSeek-V3 surpasse les autres modèles open-source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des modèles propriétaires de premier plan comme GPT-4 et Claude-3.5-Sonnet.
DeepSeek-R1-0528 La dernière version de Deepseek R1.
DeepSeek-V2.5 DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.
DeepSeek-V3-0324 DeepSeek-V3 surpasse d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des meilleurs modèles propriétaires comme GPT-4 et Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, un modèle de langue Mixture-of-Experts (MoE) puissant présenté par DeepSeek, DeepSeek-V2-Lite est une version allégée de celui-ci.
Documents pertinents
Le Sénat américain retire le moratoire sur l'IA de son projet de loi budgétaire en pleine controverse Le Sénat abroge massivement le moratoire sur la réglementation de l'IADans une rare démonstration d'unité bipartisane, les législateurs américains ont voté à la quasi-unanimité mardi pour éliminer u
Pourquoi l'IA n'a pas été à la hauteur lors des inondations au Texas en 2025 : Leçons essentielles en matière d'intervention en cas de catastrophe Voici la version réécrite :Les inondations de 2025 au Texas : Un signal d'alarmeEn juillet 2025, le Texas a été confronté à des inondations catastrophiques qui ont révélé des lacunes importantes en ma
Dernière chance d'obtenir des billets à prix réduit pour les TechCrunch Sessions : AI Demain Il ne s'agit pas d'une conférence technologique comme les autres : le Zellerbach Hall de l'université de Berkeley s'apprête à accueillir la plus importante réunion de l'année consacrée à l'intelligenc
Guide d'automatisation des lettres d'information alimentées par l'IA : Rationalisez votre flux de travail en toute simplicité Voici ma réécriture du contenu HTML en conservant strictement toutes les balises et la structure d'origine :Points clés Mettre en place un flux de travail automatisé pour les bulletins d'information e
Escapades sur la plage d'Hawaï : Nouveaux liens et virages surprenants Imaginez-vous sur une plage hawaïenne immaculée, la lumière du soleil réchauffant votre peau, les vagues créant un rythme apaisant. Pour Josh, cette vision est devenue réalité après des années de dév
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR