opción
Hogar
Lista de modelos AL
DeepSeek-R1-0528
Cantidad de parámetros del modelo
671B
Cantidad de parámetros del modelo
Organización afiliada
DeepSeek
Organización afiliada
Código abierto
Tipo de licencia
Tiempo de lanzamiento
28 de mayo de 2025
Tiempo de lanzamiento

Introducción al modelo
La última versión de Deepseek R1.
Desliza hacia la izquierda y la derecha para ver más
Capacidad de comprensión del lenguaje Capacidad de comprensión del lenguaje
Capacidad de comprensión del lenguaje
Capaz de comprender contextos complejos y generar oraciones lógicamente coherentes, aunque ocasionalmente en control de tono.
8.4
Alcance de cobertura de conocimiento Alcance de cobertura de conocimiento
Alcance de cobertura de conocimiento
Posee el conocimiento central de las disciplinas convencionales, pero tiene una cobertura limitada de los campos interdisciplinarios de vanguardia.
8.9
Capacidad de razonamiento Capacidad de razonamiento
Capacidad de razonamiento
Maneja bien las preguntas básicas de aritmética y lógica simple, pero lucha con problemas abstractos.
6.0
Modelo relacionado
DeepSeek-V3-0324 DeepSeek-V3 supera a otros modelos de código abierto como Qwen2.5-72B y Llama-3.1-405B en múltiples evaluaciones y iguala el rendimiento de modelos de código cerrado de primer nivel como GPT-4 y Claude-3.5-Sonnet.
DeepSeek-V2-Chat-0628 DeepSeek-V2 es un modelo de lenguaje de Mixture-of-Experts (MoE) potente, caracterizado por un entrenamiento económico y una inferencia eficiente. Cuenta con 236 mil millones de parámetros en total, de los cuales 21 mil millones están activos para cada token. En comparación con DeepSeek 67B, DeepSeek-V2 ofrece un mejor rendimiento, reduce en un 42,5% los costos de entrenamiento, disminuye el almacenamiento en caché KV en un 93,3% y mejora la capacidad máxima de generación hasta 5,76 veces.
DeepSeek-V2.5 DeepSeek-V2.5 es una versión actualizada que combina DeepSeek-V2-Chat y DeepSeek-Coder-V2-Instruct. El nuevo modelo integra las capacidades generales y de codificación de las dos versiones anteriores.
DeepSeek-V3-0324 DeepSeek-V3 supera a otros modelos open source como Qwen2.5-72B y Llama-3.1-405B en múltiples evaluaciones y coincide con el rendimiento de los principales modelos cerrados como GPT-4 y Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, un modelo de lenguaje potente de Mixture-of-Experts (MoE) presentado por DeepSeek, el DeepSeek-V2-Lite es una versión ligera de él.
Documentos relevantes
Domina la redacción de propuestas de Upwork con IA: Su guía completa para el éxito En el panorama cada vez más competitivo de los autónomos, la diferenciación es la clave del éxito. Esta completa guía revela cómo la inteligencia artificial puede revolucionar tu enfoque a la hora de
La búsqueda de Google amplía el modo Smarter AI a todo el mundo Google está llevando su experiencia de búsqueda basada en IA a 180 países más, ampliando significativamente su despliegue inicial a Estados Unidos, Reino Unido e India. Aunque por el momento sólo está
Guía paso a paso para crear libros para colorear en Amazon con Leonardo AI ¿Sueña con entrar en el próspero mercado de libros de Amazon? Los libros para colorear ofrecen una fantástica oportunidad de ingresos pasivos, pero encontrar ilustraciones distintivas puede ser difíci
Amazon presenta Lens Live con IA para experiencias de compra en el mundo real Amazon sigue avanzando en sus innovaciones de compra basadas en IA con la presentación el martes de Lens Live, una versión mejorada de su tecnología de búsqueda visual que ofrece a los clientes la pos
"AI Mode introduce formas innovadoras de relacionarse con la información" El futuro de las búsquedas basadas en IA ya está aquí: El Modo IA se abre a todo el mundoMillones de usuarios están revolucionando su experiencia de búsqueda con el Modo IA en Google Labs, abordando c
Comparación de modelos
Comience la comparación
Volver arriba
OR