opción
Hogar Flechas de navegación Lista de modelos AL Flechas de navegación Qwen2.5-72B-Instruct
Cantidad de parámetros del modelo
72B
Cantidad de parámetros del modelo
Organización afiliada
Alibaba
Organización afiliada
Código abierto
Tipo de licencia
Tiempo de lanzamiento
18 de septiembre de 2024
Tiempo de lanzamiento
Introducción al modelo
Así como Qwen2, los modelos de lenguaje Qwen2.5 admiten hasta 128K tokens y pueden generar hasta 8K tokens. También mantienen el soporte multilingüe para más de 29 idiomas, incluidos chino, inglés, francés, español, portugués, alemán, italiano, ruso, japonés, coreano, vietnamita, tailandés, árabe y más.
Capacidad de comprensión del lenguaje Capacidad de comprensión del lenguaje
Capacidad de comprensión del lenguaje
A menudo hace juicios mal semánticos, lo que lleva a obvias desconexiones lógicas en las respuestas.
5.7
Alcance de cobertura de conocimiento Alcance de cobertura de conocimiento
Alcance de cobertura de conocimiento
Posee el conocimiento central de las disciplinas convencionales, pero tiene una cobertura limitada de los campos interdisciplinarios de vanguardia.
7.3
Capacidad de razonamiento Capacidad de razonamiento
Capacidad de razonamiento
Incapaz de mantener cadenas de razonamiento coherentes, a menudo causando causalidad invertida o errores de cálculo.
5.6
Modelo relacionado
Qwen2.5-7B-Instruct Así como Qwen2, los modelos de lenguaje Qwen2.5 admiten hasta 128K tokens y pueden generar hasta 8K tokens. También mantienen el soporte multilingüe para más de 29 idiomas, incluidos chino, inglés, francés, español, portugués, alemán, italiano, ruso, japonés, coreano, vietnamita, tailandés, árabe y más.
Qwen3-32B (Thinking) Qwen3 es la última generación de modelos de lenguaje grande de la serie Qwen, ofreciendo una amplia suite de modelos densos y mezcla de expertos (MoE).
Qwen1.5-72B-Chat Qwen1.5 es la versión beta de Qwen2, manteniendo su arquitectura como un modelo de transformador solo decodificador con activación SwiGLU, RoPE y mecanismos de atención de varias cabezas. Ofrece nueve tamaños de modelos y tiene capacidades mejoradas de lenguaje multilingüe y de chat, admitiendo una longitud de contexto de 32,768 tokens. Todos los modelos tienen prompts de sistema habilitados para roles, y el código admite la implementación nativa en transformers.
Qwen1.5-7B-Chat Qwen1.5 es la versión beta de Qwen2, manteniendo su arquitectura como un modelo de transformador de solo decodificador con activación SwiGLU, RoPE y mecanismos de atención de varias cabezas. Ofrece nueve tamaños de modelo y tiene capacidades mejoradas en multilingüismo y modelos de chat, con un contexto de longitud de 32.768 tokens. Todos los modelos tienen habilitados prompts de sistema para interpretación de roles, y el código admite implementación nativa en transformers.
Qwen1.5-14B-Chat Qwen1.5 es la versión beta de Qwen2, manteniendo su arquitectura como un modelo de transformador solo decodificador con activación SwiGLU, RoPE y mecanismos de atención de varias cabezas. Ofrece nueve tamaños de modelo y tiene capacidades mejoradas en multilingüismo y modelos de chat, admitiendo una longitud de contexto de 32.768 tokens. Todos los modelos tienen habilitados los prompts de sistema para roles, y el código admite implementación nativa en transformers.
Documentos relevantes
Google Gemini Code Assist mejora codificación IA con capacidades agentes Gemini Code Assist, el asistente de programación con IA de Google, está lanzando nuevas funciones "agénticas" en modo de vista previa. En la reciente conferencia Cloud Next, Google
Microsoft libera editor de texto CLI en Build Microsoft apuesta fuerte por el código abierto en Build 2025En la conferencia Build 2025, Microsoft realizó movimientos importantes en el mundo del código abierto, lanzando varias
OpenAI mejora el modelo de IA detrás de su Operator Agent OpenAI lleva a Operator al siguiente nivelOpenAI está dando una gran actualización a su agente de IA autónomo, Operator. Los próximos cambios significan que Operator pronto funcion
El fondo de futuro de IA de Google podría tener que proceder con cautela El nuevo programa de inversiones en IA de Google: un cambio estratégico ante la creciente escrutinización regulatoriaEl reciente anuncio de Google sobre la creación de su fondo de
AI YouTube MiniGnail Generator: aumente sus vistas de video El poder de la IA en la creación de miniatura de YouTube en el panorama digital de hoy, una cautivadora miniatura de YouTube es crucial para captar la atención de los espectadores. Con millones de videos compitiendo por clics, una miniatura llamativa puede marcar la diferencia. Los generadores de miniatura AI de YouTube se han convertido en un gam
Comparación de modelos
Comience la comparación
Volver arriba
OR