opción
Cantidad de parámetros del modelo
671B
Cantidad de parámetros del modelo
Organización afiliada
DeepSeek
Organización afiliada
Código abierto
Tipo de licencia
Tiempo de lanzamiento
20 de enero de 2025
Tiempo de lanzamiento

Introducción al modelo
DeepSeek-R1 es un modelo entrenado mediante aprendizaje por refuerzo a gran escala (RL) sin utilizar Afinamiento Supervisado (SFT) como paso inicial. Su rendimiento en tareas de matemáticas, codificación y razonamiento es comparable al de OpenAI-o1.
Desliza hacia la izquierda y la derecha para ver más
Capacidad de comprensión del lenguaje Capacidad de comprensión del lenguaje
Capacidad de comprensión del lenguaje
Capaz de comprender contextos complejos y generar oraciones lógicamente coherentes, aunque ocasionalmente en control de tono.
7.8
Alcance de cobertura de conocimiento Alcance de cobertura de conocimiento
Alcance de cobertura de conocimiento
Posee el conocimiento central de las disciplinas convencionales, pero tiene una cobertura limitada de los campos interdisciplinarios de vanguardia.
8.9
Capacidad de razonamiento Capacidad de razonamiento
Capacidad de razonamiento
Capaz de construir marcos lógicos de nivel múltiple, logrando más del 99% de precisión en el modelado matemático complejo.
9.1
Modelo relacionado
DeepSeek-V3-0324 DeepSeek-V3 supera a otros modelos de código abierto como Qwen2.5-72B y Llama-3.1-405B en múltiples evaluaciones y iguala el rendimiento de modelos de código cerrado de primer nivel como GPT-4 y Claude-3.5-Sonnet.
DeepSeek-R1-0528 La última versión de Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 es un modelo de lenguaje de Mixture-of-Experts (MoE) potente, caracterizado por un entrenamiento económico y una inferencia eficiente. Cuenta con 236 mil millones de parámetros en total, de los cuales 21 mil millones están activos para cada token. En comparación con DeepSeek 67B, DeepSeek-V2 ofrece un mejor rendimiento, reduce en un 42,5% los costos de entrenamiento, disminuye el almacenamiento en caché KV en un 93,3% y mejora la capacidad máxima de generación hasta 5,76 veces.
DeepSeek-V2.5 DeepSeek-V2.5 es una versión actualizada que combina DeepSeek-V2-Chat y DeepSeek-Coder-V2-Instruct. El nuevo modelo integra las capacidades generales y de codificación de las dos versiones anteriores.
DeepSeek-V3-0324 DeepSeek-V3 supera a otros modelos open source como Qwen2.5-72B y Llama-3.1-405B en múltiples evaluaciones y coincide con el rendimiento de los principales modelos cerrados como GPT-4 y Claude-3.5-Sonnet.
Documentos relevantes
Los relojes clásicos de Casio se modernizan: Bluetooth, seguimiento de pasos y juegos El legendario reloj digital Casio F-91W, inalterado desde su debut en 1989, recibe por fin modernas funciones inteligentes, aunque sorprendentemente no de la propia Casio. Llega el Ollee Watch One: un
El chatbot Gemini de Google mejora sus funciones de análisis de proyectos de GitHub Gemini Advanced integra la conectividad con GitHubLos suscriptores premium de Gemini Advanced de Google (20 $/mes) ahora pueden vincular directamente los repositorios de GitHub con el asistente de IA
La IA transforma los juegos con avances en diplomacia, metainteligencia y aprendizaje por refuerzo El panorama de los juegos está experimentando una profunda transformación gracias a la inteligencia artificial, que está revolucionando todo, desde el juego estratégico hasta las experiencias digitale
Proton presenta un chatbot de inteligencia artificial centrado en la privacidad en medio de la creciente preocupación por los datos Proton, conocida por su servicio seguro Proton Mail, ha presentado Lumo, un innovador asistente de inteligencia artificial diseñado para garantizar la privacidad. La nueva oferta permite resumir docum
La IA Gemini de Google presenta una función de conversión de foto a vídeo La última actualización de Google Gemini introduce una innovadora conversión de foto a vídeo impulsada por el modelo Veo 3. Esta innovadora función transforma imágenes estáticas en clips de vídeo de o
Comparación de modelos
Comience la comparación
Volver arriba
OR