option
Quantité de paramètre de modèle
671B
Quantité de paramètre de modèle
Organisation affiliée
DeepSeek
Organisation affiliée
Source ouverte
Type de licence
Temps de libération
20 janvier 2025
Temps de libération
Introduction du modèle
DeepSeek-R1 a largement utilisé des techniques d'apprentissage par renforcement lors de la phase post-entraînement, améliorant sensiblement les capacités de raisonnement du modèle avec une quantité minimale de données annotées. Pour les tâches liées aux mathématiques, au codage et à l'inférence du langage naturel, ses performances sont équivalentes à celles de la version officielle d'OpenAI's o1.
Faites glisser vers la gauche et la droite pour voir plus
Capacité de compréhension du langage Capacité de compréhension du langage
Capacité de compréhension du langage
Capable de comprendre des contextes complexes et de générer des phrases logiquement cohérentes, bien que parfois hors du contrôle de la tonalité.
7.5
Portée de la couverture des connaissances Portée de la couverture des connaissances
Portée de la couverture des connaissances
Couvre plus de 200 domaines spécialisés, intégrant les dernières résultats de recherche et les connaissances interculturelles en temps réel.
9.0
Capacité de raisonnement Capacité de raisonnement
Capacité de raisonnement
Peut effectuer un raisonnement logique avec plus de trois étapes, bien que l'efficacité baisse lors de la gestion des relations non linéaires.
8.5
Modèle connexe
DeepSeek-V2-Chat-0628 DeepSeek-V2 est un modèle de langue robuste de type Mixture-of-Experts (MoE), caractérisé par un coût d'entraînement économique et une inférence efficace. Il comprend un total de 236 milliards de paramètres, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42,5 % des coûts d'entraînement, réduisant la mémoire de cache KV de 93,3 % et augmentant la capacité maximale de génération jusqu'à 5,76 fois.
DeepSeek-V2.5 DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.
DeepSeek-V3-0324 DeepSeek-V3 surpasse d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des meilleurs modèles propriétaires comme GPT-4 et Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, un modèle de langue Mixture-of-Experts (MoE) puissant présenté par DeepSeek, DeepSeek-V2-Lite est une version allégée de celui-ci.
DeepSeek-V2-Chat DeepSeek-V2 est un modèle linguistique robuste du type Mixture-of-Experts (MoE), caractérisé par un entraînement économique et une inférence efficace. Il comporte 236 milliards de paramètres au total, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42.5 % des coûts d'entraînement, réduisant la mémoire cache KV de 93.3 % et augmentant le débit maximal de génération de 5.76 fois.
Documents pertinents
Maîtriser les outils d'édition IA de Google Photos pour des résultats époustouflants Google Photos excelle dans le stockage et l'organisation des photos, mais ses fonctionnalités d'édition basées sur l'IA restent souvent sous-exploitées. Ce guide révèle les capacités cachées de Google
Voyage Piloté par l'IA : Planifiez Votre Évasion Parfaite avec Facilité Organiser des vacances peut sembler intimidant, avec des recherches et des avis interminables transformant l'excitation en stress. La planification de voyage alimentée par l'IA change cela, rendant le
NoteGPT alimenté par l'IA transforme l'expérience d'apprentissage sur YouTube Dans le monde trépidant d'aujourd'hui, un apprentissage efficace est essentiel. NoteGPT est une extension Chrome dynamique qui révolutionne la manière dont vous interagissez avec le contenu YouTube. E
Communauté syndicale et Google s’associent pour renforcer les compétences en IA des travailleurs britanniques Note de l’éditeur : Google s’est associé à la Communauté syndicale au Royaume-Uni pour démontrer comment les compétences en IA peuvent améliorer les capacités des travailleurs de bureau et opérationne
Magi-1 Dévoile une Technologie Révolutionnaire d'IA Open-Source pour la Génération de Vidéos Le domaine de la création vidéo alimentée par l'IA progresse rapidement, et Magi-1 marque une étape transformative. Ce modèle open-source innovant offre une précision inégalée dans le contrôle du timi
Comparaison du modèle
Démarrer la comparaison
Retour en haut
OR