option
Quantité de paramètre de modèle
671B
Quantité de paramètre de modèle
Organisation affiliée
DeepSeek
Organisation affiliée
Source ouverte
Type de licence
Temps de libération
20 janvier 2025
Temps de libération

Introduction du modèle
DeepSeek-R1 a largement utilisé les techniques d'apprentissage par renforcement au cours de la phase de post-entraînement, améliorant de manière significative les capacités de raisonnement du modèle avec seulement une quantité minimale de données annotées. Dans les tâches impliquant les mathématiques, le codage et l'inférence du langage naturel, ses performances sont comparables à celles de la version officielle de o1 d'OpenAI.
Faites glisser vers la gauche et la droite pour voir plus
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Capable de comprendre des contextes complexes et de générer des phrases logiquement cohérentes, bien que parfois hors du contrôle de la tonalité.
7.5
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
Couvre plus de 200 domaines spécialisés, intégrant les dernières résultats de recherche et les connaissances interculturelles en temps réel.
9.0
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Peut effectuer un raisonnement logique avec plus de trois étapes, bien que l'efficacité baisse lors de la gestion des relations non linéaires.
8.5
Comparaison du modèle
Modèle connexe
DeepSeek-V3-0324 DeepSeek-V3 surpasse les autres modèles open-source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des modèles propriétaires de premier plan comme GPT-4 et Claude-3.5-Sonnet.
DeepSeek-R1-0528 La dernière version de Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 est un modèle de langue robuste de type Mixture-of-Experts (MoE), caractérisé par un coût d'entraînement économique et une inférence efficace. Il comprend un total de 236 milliards de paramètres, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42,5 % des coûts d'entraînement, réduisant la mémoire de cache KV de 93,3 % et augmentant la capacité maximale de génération jusqu'à 5,76 fois.
DeepSeek-V2.5 DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.
DeepSeek-V3-0324 DeepSeek-V3 surpasse d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des meilleurs modèles propriétaires comme GPT-4 et Claude-3.5-Sonnet.
Documents pertinents
Révolution de la mise à l'échelle de la publicité par l'IA : Multiplier la créativité par 10 en 2025 Le paysage de la publicité numérique continue d'évoluer rapidement, rendant l'innovation impérative pour réussir face à la concurrence. À l'approche de 2025, la fusion de l'intelligence artificielle e
Les systèmes de recrutement par IA révèlent les biais cachés qui influencent les décisions d'embauche Les biais cachés du recrutement par l'IA : Lutter contre la discrimination systémique dans les algorithmes de recrutementIntroductionLes outils d'embauche alimentés par l'IA promettent de transformer
L'adoption de l'IA par les entreprises plafonne, selon les données de Ramp L'adoption de l'IA par les entreprises atteint un plateauAlors que les entreprises se sont d'abord précipitées pour mettre en œuvre des solutions d'intelligence artificielle, l'enthousiasme semble se
Pokemon FireRed Kaizo IronMon Challenge : Règles essentielles et stratégies gagnantes Le défi Pokemon FireRed Kaizo IronMon est l'un des tests ultimes du jeu : un gant brutal qui brise les stratégies Pokemon conventionnelles et oblige les joueurs à repenser chaque décision. Cette varia
Les outils de gestion des tâches pilotés par l'IA optimisent la productivité et l'efficacité L'avenir de la productivité : La gestion des tâches par l'IADans notre paysage numérique en constante accélération, une gestion efficace des tâches est devenue essentielle à la réussite professionnell
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR