option
Quantité de paramètre de modèle
236B
Quantité de paramètre de modèle
Organisation affiliée
DeepSeek
Organisation affiliée
Source ouverte
Type de licence
Temps de libération
4 septembre 2024
Temps de libération
Introduction du modèle
DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
5.8
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
A des angles morts de connaissances importantes, montrant souvent des erreurs factuelles et répétant des informations obsolètes.
6.9
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
5.2
Modèle connexe
DeepSeek-V2-Chat-0628 DeepSeek-V2 est un modèle de langue robuste de type Mixture-of-Experts (MoE), caractérisé par un coût d'entraînement économique et une inférence efficace. Il comprend un total de 236 milliards de paramètres, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42,5 % des coûts d'entraînement, réduisant la mémoire de cache KV de 93,3 % et augmentant la capacité maximale de génération jusqu'à 5,76 fois.
DeepSeek-V2.5 DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.
DeepSeek-V3-0324 DeepSeek-V3 surpasse d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des meilleurs modèles propriétaires comme GPT-4 et Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, un modèle de langue Mixture-of-Experts (MoE) puissant présenté par DeepSeek, DeepSeek-V2-Lite est une version allégée de celui-ci.
DeepSeek-V2-Chat DeepSeek-V2 est un modèle linguistique robuste du type Mixture-of-Experts (MoE), caractérisé par un entraînement économique et une inférence efficace. Il comporte 236 milliards de paramètres au total, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42.5 % des coûts d'entraînement, réduisant la mémoire cache KV de 93.3 % et augmentant le débit maximal de génération de 5.76 fois.
Documents pertinents
Gemini Code Assist améliore le codage IA avec des fonctionnalités agentes Gemini Code Assist, l'assistant de codage propulsé par l'IA de Google, déploie de nouvelles fonctionnalités "agentiques" en mode prévisualisation. Lors de la récente conférence Clo
Microsoft open-source un éditeur de texte CLI à Build Microsoft mise tout sur l'open source à Build 2025Lors de la conférence Build 2025, Microsoft a opéré un virage majeur vers l'open source en dévoilant plusieurs outils clés, dont u
OpenAI améliore le modèle d'IA derrière son Operator Agent OpenAI fait passer Operator au niveau supérieur OpenAI donne un sérieux coup de pouce à son agent autonome Operator. Les prochaines mises à jour permettront à Operator de s'appuye
Le fonds futur de l'IA de Google pourrait devoir avancer prudemment L’Initiative d’Investissement en IA de Google : Un Changement Stratégique Face à une Surveillance RéglementaireL’annonce récente par Google de son fonds AI Futures marque un mouvem
Générateur de vignettes AI YouTube: Boostez vos vues vidéo La puissance de l'IA dans la création de vignettes YouTube dans le paysage numérique d'aujourd'hui, une vignette YouTube captivante est cruciale pour attirer l'attention des téléspectateurs. Avec des millions de vidéos en concurrence pour les clics, une miniature frappante peut faire toute la différence. Les générateurs de vignettes AI YouTube ont émergé comme un GAM
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR