opción
Hogar
Lista de modelos AL
Mistral-Small-Instruct-2409

Mistral-Small-Instruct-2409

Agregar comparación
Agregar comparación
Cantidad de parámetros del modelo
22B
Cantidad de parámetros del modelo
Organización afiliada
Mistral AI
Organización afiliada
Código abierto
Tipo de licencia
Tiempo de lanzamiento
17 de septiembre de 2024
Tiempo de lanzamiento

Introducción al modelo
Con 22 mil millones de parámetros, Mistral Small v24.09 ofrece a los clientes un punto intermedio práctico entre Mistral NeMo 12B y Mistral Large 2, proporcionando una solución costo-efectiva que puede implementarse en diversas plataformas y entornos.
Desliza hacia la izquierda y la derecha para ver más
Capacidad de comprensión del lenguaje Capacidad de comprensión del lenguaje
Capacidad de comprensión del lenguaje
A menudo hace juicios mal semánticos, lo que lleva a obvias desconexiones lógicas en las respuestas.
4.2
Alcance de cobertura de conocimiento Alcance de cobertura de conocimiento
Alcance de cobertura de conocimiento
Tiene puntos ciegos de conocimiento significativo, a menudo que muestran errores objetivos y repitiendo información obsoleta.
6.3
Capacidad de razonamiento Capacidad de razonamiento
Capacidad de razonamiento
Incapaz de mantener cadenas de razonamiento coherentes, a menudo causando causalidad invertida o errores de cálculo.
4.2
Comparación de modelos
Modelo relacionado
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 es un modelo avanzado de Gran Lenguaje denso (LLM) de 123 mil millones de parámetros con capacidades líderes en razonamiento, conocimiento y codificación, mejorando al Mistral-Large-Instruct-2407 con un mejor soporte para Contexto Largo, Llamada de Función y Prompt de Sistema.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 es un avanzado modelo de Lenguaje Grande (LLM) denso de 123 mil millones de parámetros con capacidades de razonamiento, conocimiento y codificación de punta, extendiendo el Mistral-Large-Instruct-2407 con mejor soporte para contexto largo, llamada de funciones y sistema de prompt.
Mistral-Small-Instruct-2409 Con 22 mil millones de parámetros, el Mistral Small v24.09 ofrece a los clientes un punto intermedio práctico entre el Mistral NeMo 12B y el Mistral Large 2, proporcionando una solución rentable que se puede implementar en diversas plataformas y entornos.
Ministral-8B-Instruct-2410 El modelo de lenguaje Ministral-8B-Instruct-2410 es un modelo considerablemente afinado por instrucciones que supera a modelos existentes de tamaño similar, lanzado bajo la Licencia de Investigación Mistral.
Mixtral-8x22B-Instruct-v0.1 Mixtral 8x22B es un modelo Mixture-of-Experts (SMoE) disperso que utiliza solo 39 mil millones de parámetros activos de un total de 141 mil millones, ofreciendo una eficiencia de costo sin precedentes para su tamaño.
Documentos relevantes
Google presenta herramientas basadas en IA para Gmail, Docs y Vids Google presenta en I/O 2025 actualizaciones del espacio de trabajo basadas en IADurante su conferencia anual de desarrolladores, Google ha presentado mejoras transformadoras de IA que llegarán a su su
AWS lanza Bedrock AgentCore: Plataforma de código abierto para el desarrollo de agentes de IA empresarial Aquí está el contenido HTML reescrito:AWS lanza Bedrock AgentCore para agentes de IA empresariales Amazon Web Services (AWS) apuesta fuerte por los agentes de IA que transforman las operaciones empres
La grabadora de voz Akaluli AI mejora la productividad y la concentración de forma eficaz En nuestros entornos de trabajo hiperconectados, mantener la concentración durante conversaciones cruciales es cada vez más difícil. La grabadora de voz Akaluli AI presenta una solución innovadora a e
Spotify aumenta el coste de la suscripción Premium en los mercados fuera de EE.UU. Spotify está aplicando subidas de precios de suscripción en varios mercados internacionales pocos días después de presentar unos resultados financieros decepcionantes. El gigante del streaming confirm
Cairn RPG: sistema de mesa fácil de aprender para nuevos jugadores ¿Quieres una emocionante puerta de entrada a los juegos de rol de mesa que no abrume a los recién llegados? Imagínate organizar una aventura entera con diez completos principiantes en sólo quince minu
Comparación de modelos
Comience la comparación
Volver arriba
OR