option
Maison
Liste des modèles Al
DeepSeek-V2-Lite-Chat
Quantité de paramètre de modèle
16B
Quantité de paramètre de modèle
Organisation affiliée
DeepSeek
Organisation affiliée
Source ouverte
Type de licence
Temps de libération
15 mai 2024
Temps de libération

Introduction du modèle
DeepSeek-V2, un modèle de langue Mixture-of-Experts (MoE) puissant présenté par DeepSeek, DeepSeek-V2-Lite est une version allégée de celui-ci.
Faites glisser vers la gauche et la droite pour voir plus
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
3.8
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
A des angles morts de connaissances importantes, montrant souvent des erreurs factuelles et répétant des informations obsolètes.
5.3
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
1.9
Modèle connexe
DeepSeek-V3-0324 DeepSeek-V3 surpasse les autres modèles open-source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des modèles propriétaires de premier plan comme GPT-4 et Claude-3.5-Sonnet.
DeepSeek-R1-0528 La dernière version de Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 est un modèle de langue robuste de type Mixture-of-Experts (MoE), caractérisé par un coût d'entraînement économique et une inférence efficace. Il comprend un total de 236 milliards de paramètres, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42,5 % des coûts d'entraînement, réduisant la mémoire de cache KV de 93,3 % et augmentant la capacité maximale de génération jusqu'à 5,76 fois.
DeepSeek-V2.5 DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.
DeepSeek-V3-0324 DeepSeek-V3 surpasse d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des meilleurs modèles propriétaires comme GPT-4 et Claude-3.5-Sonnet.
Documents pertinents
Les jeux de la console Xbox apparaissent de manière inattendue sur la plateforme d'application Xbox PC L'application Xbox de Microsoft pour Windows présente un comportement inhabituel qui laisse présager des changements stratégiques plus importants. L'application Xbox pour PC a récemment commencé à aff
Automatiser la création de lettres d'information alimentées par l'IA pour un marketing de contenu rationalisé Dans le paysage numérique concurrentiel d'aujourd'hui, les entreprises cherchent constamment des moyens d'améliorer leurs efforts de marketing de contenu tout en optimisant l'efficacité. L'automatisat
Les montres classiques Casio bénéficient d'améliorations modernes : Bluetooth, suivi des pas et jeux La légendaire montre numérique Casio F-91W, inchangée depuis ses débuts en 1989, est enfin dotée de fonctions intelligentes modernes - bien que, étonnamment, ce ne soit pas Casio elle-même qui en soit
Le chatbot Google Gemini bénéficie de capacités améliorées d'analyse des projets GitHub Gemini Advanced intègre la connectivité GitHubDepuis mercredi, les abonnés à Gemini Advanced de Google (20 $/mois) peuvent relier directement les dépôts GitHub à l'assistant d'intelligence artificiell
L'IA transforme les jeux grâce à la diplomatie, à la méta-ingénierie et aux progrès de l'apprentissage par renforcement. L'intelligence artificielle transforme profondément le paysage des jeux, révolutionnant tout, du jeu stratégique à l'expérience numérique immersive. Loin de se contenter de concurrencer les joueurs hu
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR