opção
Lar
Lista de modelos AL
Mistral-Small-Instruct-2409

Mistral-Small-Instruct-2409

Adicione comparação
Adicione comparação
Modelo Parâmetro Quantidade
22B
Modelo Parâmetro Quantidade
Organização afiliada
Mistral AI
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
17 de Setembro de 2024
Tempo de liberação

Introdução ao modelo
Com 22 bilhões de parâmetros, o Mistral Small v24.09 oferece aos clientes um ponto intermediário conveniente entre o Mistral NeMo 12B e o Mistral Large 2, proporcionando uma solução de baixo custo que pode ser implantada em várias plataformas e ambientes.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
4.2
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
6.3
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
4.2
Modelo relacionado
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 é um avançado modelo de Linguagem Grande densa (LLM) de 123 bilhões de parâmetros com capacidades de raciocínio, conhecimento e codificação de ponta, extendendo o Mistral-Large-Instruct-2407 com melhor suporte para Contexto Longo, Chamada de Função e Sistema de Prompt.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 é um avançado modelo de Linguagem Grande (LLM) denso de 123 bilhões de parâmetros com capacidades de raciocínio, conhecimento e codificação de ponta, extendendo o Mistral-Large-Instruct-2407 com melhor suporte a contexto longo, chamada de funções e sistema de prompt.
Mistral-Small-Instruct-2409 Com 22 bilhões de parâmetros, o Mistral Small v24.09 oferece aos clientes um ponto intermediário conveniente entre o Mistral NeMo 12B e o Mistral Large 2, proporcionando uma solução de baixo custo que pode ser implantada em várias plataformas e ambientes.
Ministral-8B-Instruct-2410 O modelo de linguagem Ministral-8B-Instruct-2410 é um modelo significativamente ajustado por instrução que supera modelos existentes de tamanho semelhante, lançado sob a licença de pesquisa Mistral.
Mixtral-8x22B-Instruct-v0.1 Mixtral 8x22B é um modelo Mixture-of-Experts (SMoE) esparsa que utiliza apenas 39B de parâmetros ativos de um total de 141B, oferecendo uma eficiência de custo sem precedentes para seu tamanho.
Documentos relevantes
Google apresenta ferramentas com tecnologia de IA para Gmail, Docs e Vids Google revela atualizações do Workspace com IA na I/O 2025Durante sua conferência anual para desenvolvedores, o Google apresentou aprimoramentos transformadores de IA para seu pacote Workspace, mudand
AWS lança o Bedrock AgentCore: Plataforma de código aberto para desenvolvimento de agentes de IA corporativos Aqui está o conteúdo HTML reescrito:AWS lança o Bedrock AgentCore para agentes de IA empresariais A Amazon Web Services (AWS) está apostando alto nos agentes de IA que transformam as operações de negó
O gravador de voz com IA Akaluli aumenta a produtividade e o foco de forma eficiente Em nossos ambientes de trabalho hiperconectados, manter o foco durante conversas cruciais tem se tornado cada vez mais desafiador. O Akaluli AI Voice Recorder apresenta uma solução inovadora para esse
Spotify aumenta os custos da assinatura Premium em mercados fora dos EUA O Spotify está implementando aumentos nos preços das assinaturas em vários mercados internacionais, apenas alguns dias depois de apresentar um desempenho financeiro abaixo do esperado. A gigante do st
Cairn RPG: sistema de mesa fácil de aprender para novos jogadores Quer uma porta de entrada empolgante para os RPGs de mesa que não sobrecarregue os novatos? Imagine-se organizando uma aventura inteira com dez jogadores completamente iniciantes em apenas quinze minu
Comparação de modelos
Inicie a comparação
De volta ao topo
OR