opción
Hogar
Lista de modelos AL
DeepSeek-V3-0324
Cantidad de parámetros del modelo
671B
Cantidad de parámetros del modelo
Organización afiliada
DeepSeek
Organización afiliada
Código abierto
Tipo de licencia
Tiempo de lanzamiento
24 de marzo de 2025
Tiempo de lanzamiento

Introducción al modelo
DeepSeek-V3 supera a otros modelos open source como Qwen2.5-72B y Llama-3.1-405B en múltiples evaluaciones y coincide con el rendimiento de los principales modelos cerrados como GPT-4 y Claude-3.5-Sonnet.
Desliza hacia la izquierda y la derecha para ver más
Capacidad de comprensión del lenguaje Capacidad de comprensión del lenguaje
Capacidad de comprensión del lenguaje
Capaz de comprender contextos complejos y generar oraciones lógicamente coherentes, aunque ocasionalmente en control de tono.
7.4
Alcance de cobertura de conocimiento Alcance de cobertura de conocimiento
Alcance de cobertura de conocimiento
Posee el conocimiento central de las disciplinas convencionales, pero tiene una cobertura limitada de los campos interdisciplinarios de vanguardia.
8.7
Capacidad de razonamiento Capacidad de razonamiento
Capacidad de razonamiento
Puede realizar un razonamiento lógico con más de tres pasos, aunque la eficiencia cae al manejar relaciones no lineales.
8.9
Modelo relacionado
DeepSeek-V3-0324 DeepSeek-V3 supera a otros modelos de código abierto como Qwen2.5-72B y Llama-3.1-405B en múltiples evaluaciones y iguala el rendimiento de modelos de código cerrado de primer nivel como GPT-4 y Claude-3.5-Sonnet.
DeepSeek-R1-0528 La última versión de Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 es un modelo de lenguaje de Mixture-of-Experts (MoE) potente, caracterizado por un entrenamiento económico y una inferencia eficiente. Cuenta con 236 mil millones de parámetros en total, de los cuales 21 mil millones están activos para cada token. En comparación con DeepSeek 67B, DeepSeek-V2 ofrece un mejor rendimiento, reduce en un 42,5% los costos de entrenamiento, disminuye el almacenamiento en caché KV en un 93,3% y mejora la capacidad máxima de generación hasta 5,76 veces.
DeepSeek-V2.5 DeepSeek-V2.5 es una versión actualizada que combina DeepSeek-V2-Chat y DeepSeek-Coder-V2-Instruct. El nuevo modelo integra las capacidades generales y de codificación de las dos versiones anteriores.
DeepSeek-V2-Lite-Chat DeepSeek-V2, un modelo de lenguaje potente de Mixture-of-Experts (MoE) presentado por DeepSeek, el DeepSeek-V2-Lite es una versión ligera de él.
Documentos relevantes
El Senado de EE.UU. retira la moratoria de la IA del proyecto de presupuesto en medio de la polémica El Senado deroga por abrumadora mayoría la moratoria a la regulación de la IAEn una rara muestra de unidad bipartidista, los legisladores estadounidenses votaron casi por unanimidad el martes para e
Por qué la IA se quedó corta en las inundaciones de Texas de 2025: Lecciones fundamentales sobre la respuesta ante catástrofes Aquí está la versión reescrita:Las inundaciones de Texas de 2025: Una llamada de atenciónEn julio de 2025, Texas se enfrentó a unas inundaciones catastróficas que pusieron de manifiesto lagunas crític
Última oportunidad de conseguir entradas con descuento para TechCrunch Sessions: AI Event No se trata de una conferencia tecnológica más: el Zellerbach Hall de la Universidad de Berkeley está a punto de acoger la reunión sobre inteligencia artificial más importante del año. Cuando las puer
Guía de automatización de boletines informativos con IA: Racionalice su flujo de trabajo con facilidad Aquí está mi reescritura del contenido HTML manteniendo estrictamente todas las etiquetas y estructura originales:Puntos clave Implementar un flujo de trabajo automatizado de boletines utilizando las
Escapadas a playas hawaianas: Nuevos lazos y giros sorprendentes Imagínese en una playa hawaiana virgen, con la luz del sol calentándole la piel y las olas creando un ritmo relajante. Para Josh, esta visión se hizo realidad tras años de dedicación. Lo que comienza
Comparación de modelos
Comience la comparación
Volver arriba
OR