option
Maison
Liste des modèles Al
DeepSeek-V3-0324
Quantité de paramètre de modèle
671B
Quantité de paramètre de modèle
Organisation affiliée
DeepSeek
Organisation affiliée
Source ouverte
Type de licence
Temps de libération
24 mars 2025
Temps de libération

Introduction du modèle
DeepSeek-V3 surpasse d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des meilleurs modèles propriétaires comme GPT-4 et Claude-3.5-Sonnet.
Faites glisser vers la gauche et la droite pour voir plus
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Capable de comprendre des contextes complexes et de générer des phrases logiquement cohérentes, bien que parfois hors du contrôle de la tonalité.
7.4
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
Possède une connaissance fondamentale des disciplines traditionnelles, mais a une couverture limitée des champs interdisciplinaires de pointe.
8.7
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Peut effectuer un raisonnement logique avec plus de trois étapes, bien que l'efficacité baisse lors de la gestion des relations non linéaires.
8.9
Modèle connexe
DeepSeek-V3-0324 DeepSeek-V3 surpasse les autres modèles open-source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des modèles propriétaires de premier plan comme GPT-4 et Claude-3.5-Sonnet.
DeepSeek-R1-0528 La dernière version de Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 est un modèle de langue robuste de type Mixture-of-Experts (MoE), caractérisé par un coût d'entraînement économique et une inférence efficace. Il comprend un total de 236 milliards de paramètres, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42,5 % des coûts d'entraînement, réduisant la mémoire de cache KV de 93,3 % et augmentant la capacité maximale de génération jusqu'à 5,76 fois.
DeepSeek-V2.5 DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.
DeepSeek-V2-Lite-Chat DeepSeek-V2, un modèle de langue Mixture-of-Experts (MoE) puissant présenté par DeepSeek, DeepSeek-V2-Lite est une version allégée de celui-ci.
Documents pertinents
Proton dévoile un chatbot d'IA axé sur la protection de la vie privée dans un contexte de préoccupations croissantes en matière de données Proton, réputé pour son service sécurisé Proton Mail, a lancé Lumo - un assistant IA révolutionnaire conçu avec la protection de la vie privée au cœur de ses préoccupations. Cette nouvelle offre perme
L'IA Gemini de Google dévoile une fonction de conversion de photos en vidéos La dernière mise à jour Gemini de Google introduit une conversion révolutionnaire des photos en vidéos grâce au modèle Veo 3. Cette fonction innovante transforme les images statiques en clips vidéo de
AI Video Mastery : Améliorer le contenu viral grâce à des techniques d'édition intelligentes Dans le paysage numérique actuel, le contenu vidéo domine les espaces en ligne. Cependant, il ne suffit pas de produire des vidéos ; celles-ci doivent captiver les spectateurs grâce à des visuels conv
Examen du Samsung Galaxy AI : Avantages dans la vie réelle et cas d'utilisation au quotidien La suite Galaxy AI de Samsung a suscité beaucoup d'enthousiasme dans l'industrie technologique, mais apporte-t-elle des innovations significatives ou se contente-t-elle de reconditionner des fonctionn
Les graphiques conceptuels expliqués : Guide de l'IA avec des exemples simples Les graphes conceptuels se sont imposés comme un cadre fondamental de représentation des connaissances dans le domaine de l'intelligence artificielle, offrant un moyen visuellement intuitif mais mathé
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR