option
Quantité de paramètre de modèle
236B
Quantité de paramètre de modèle
Organisation affiliée
DeepSeek
Organisation affiliée
Source ouverte
Type de licence
Temps de libération
5 septembre 2024
Temps de libération

Introduction du modèle
DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.
Faites glisser vers la gauche et la droite pour voir plus
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
5.8
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
A des angles morts de connaissances importantes, montrant souvent des erreurs factuelles et répétant des informations obsolètes.
6.9
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
5.2
Comparaison du modèle
Modèle connexe
DeepSeek-V3-0324 DeepSeek-V3 surpasse les autres modèles open-source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des modèles propriétaires de premier plan comme GPT-4 et Claude-3.5-Sonnet.
DeepSeek-R1-0528 La dernière version de Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 est un modèle de langue robuste de type Mixture-of-Experts (MoE), caractérisé par un coût d'entraînement économique et une inférence efficace. Il comprend un total de 236 milliards de paramètres, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42,5 % des coûts d'entraînement, réduisant la mémoire de cache KV de 93,3 % et augmentant la capacité maximale de génération jusqu'à 5,76 fois.
DeepSeek-V2.5 DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.
DeepSeek-V3-0324 DeepSeek-V3 surpasse d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des meilleurs modèles propriétaires comme GPT-4 et Claude-3.5-Sonnet.
Documents pertinents
Google présente des outils alimentés par l'IA pour Gmail, Docs et vidéos Google dévoile des mises à jour de l'espace de travail alimentées par l'IA lors de la conférence I/O 2025Lors de sa conférence annuelle des développeurs, Google a présenté des améliorations transforma
AWS lance Bedrock AgentCore : Plate-forme open-source pour le développement d'agents d'IA d'entreprise Voici le contenu HTML réécrit :AWS lance Bedrock AgentCore pour les agents d'IA d'entreprise Amazon Web Services (AWS) mise beaucoup sur les agents d'IA qui transforment les opérations commerciales, e
L'enregistreur vocal Akaluli AI améliore la productivité et la concentration de manière efficace Dans nos environnements de travail hyperconnectés, il est de plus en plus difficile de rester concentré lors de conversations cruciales. L'enregistreur vocal Akaluli AI offre une solution innovante à
Spotify augmente le coût de l'abonnement Premium en dehors des États-Unis Quelques jours après avoir annoncé des résultats financiers décevants, Spotify augmente le prix de ses abonnements sur plusieurs marchés internationaux. Le géant du streaming a confirmé lundi que les
Cairn RPG : un système de table facile à apprendre pour les nouveaux joueurs Vous voulez une porte d'entrée passionnante vers les jeux de rôle sur table qui ne submergera pas les nouveaux venus ? Imaginez que vous organisiez une aventure entière avec dix débutants complets en
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR