Mistral-Small-Instruct-2409
22B
Cantidad de parámetros del modelo
Mistral AI
Organización afiliada
Código abierto
Tipo de licencia
16 de septiembre de 2024
Tiempo de lanzamiento
Introducción al modelo
Con 22 mil millones de parámetros, el Mistral Small v24.09 ofrece a los clientes un punto intermedio práctico entre el Mistral NeMo 12B y el Mistral Large 2, proporcionando una solución rentable que se puede implementar en diversas plataformas y entornos.
Puntaje integral
Diálogo del idioma
Reserva de conocimiento
Asociación de razonamiento
Cálculo matemático
Redacción de código
Comando siguiente


Capacidad de comprensión del lenguaje
A menudo hace juicios mal semánticos, lo que lleva a obvias desconexiones lógicas en las respuestas.
4.5


Alcance de cobertura de conocimiento
Tiene puntos ciegos de conocimiento significativo, a menudo que muestran errores objetivos y repitiendo información obsoleta.
5.5


Capacidad de razonamiento
Incapaz de mantener cadenas de razonamiento coherentes, a menudo causando causalidad invertida o errores de cálculo.
4.5
Comparación de modelos
Mistral-Small-Instruct-2409 vs Qwen2.5-7B-Instruct
Así como Qwen2, los modelos de lenguaje Qwen2.5 admiten hasta 128K tokens y pueden generar hasta 8K tokens. También mantienen el soporte multilingüe para más de 29 idiomas, incluidos chino, inglés, francés, español, portugués, alemán, italiano, ruso, japonés, coreano, vietnamita, tailandés, árabe y más.
Mistral-Small-Instruct-2409 vs Doubao-1.5-thinking-pro-250415
El nuevo modelo de pensamiento profundo Doubao-1.5 se destaca en campos profesionales como las matemáticas, la programación, el razonamiento científico y tareas generales como la escritura creativa. Ha alcanzado o está cerca del nivel superior de la industria en varios benchmarks autoritarios como AIME 2024, Codeforces y GPQA.
Mistral-Small-Instruct-2409 vs Step-1-8K
Step-1-8K es un modelo de API producido por Step Star, con el número de versión del modelo siendo step-1-8k.
Modelo relacionado
Mistral-Large-Instruct-2411
Mistral-Large-Instruct-2411 es un modelo avanzado de Gran Lenguaje denso (LLM) de 123 mil millones de parámetros con capacidades líderes en razonamiento, conocimiento y codificación, mejorando al Mistral-Large-Instruct-2407 con un mejor soporte para Contexto Largo, Llamada de Función y Prompt de Sistema.
Mistral-Large-Instruct-2411
Mistral-Large-Instruct-2411 es un avanzado modelo de Lenguaje Grande (LLM) denso de 123 mil millones de parámetros con capacidades de razonamiento, conocimiento y codificación de punta, extendiendo el Mistral-Large-Instruct-2407 con mejor soporte para contexto largo, llamada de funciones y sistema de prompt.
Mistral-Small-Instruct-2409
Con 22 mil millones de parámetros, Mistral Small v24.09 ofrece a los clientes un punto intermedio práctico entre Mistral NeMo 12B y Mistral Large 2, proporcionando una solución costo-efectiva que puede implementarse en diversas plataformas y entornos.
Ministral-8B-Instruct-2410
El modelo de lenguaje Ministral-8B-Instruct-2410 es un modelo considerablemente afinado por instrucciones que supera a modelos existentes de tamaño similar, lanzado bajo la Licencia de Investigación Mistral.
Mixtral-8x22B-Instruct-v0.1
Mixtral 8x22B es un modelo Mixture-of-Experts (SMoE) disperso que utiliza solo 39 mil millones de parámetros activos de un total de 141 mil millones, ofreciendo una eficiencia de costo sin precedentes para su tamaño.
Documentos relevantes
Google Gemini Code Assist mejora codificación IA con capacidades agentes
Gemini Code Assist, el asistente de programación con IA de Google, está lanzando nuevas funciones "agénticas" en modo de vista previa. En la reciente conferencia Cloud Next, Google
Microsoft libera editor de texto CLI en Build
Microsoft apuesta fuerte por el código abierto en Build 2025En la conferencia Build 2025, Microsoft realizó movimientos importantes en el mundo del código abierto, lanzando varias
OpenAI mejora el modelo de IA detrás de su Operator Agent
OpenAI lleva a Operator al siguiente nivelOpenAI está dando una gran actualización a su agente de IA autónomo, Operator. Los próximos cambios significan que Operator pronto funcion
El fondo de futuro de IA de Google podría tener que proceder con cautela
El nuevo programa de inversiones en IA de Google: un cambio estratégico ante la creciente escrutinización regulatoriaEl reciente anuncio de Google sobre la creación de su fondo de
AI YouTube MiniGnail Generator: aumente sus vistas de video
El poder de la IA en la creación de miniatura de YouTube en el panorama digital de hoy, una cautivadora miniatura de YouTube es crucial para captar la atención de los espectadores. Con millones de videos compitiendo por clics, una miniatura llamativa puede marcar la diferencia. Los generadores de miniatura AI de YouTube se han convertido en un gam