opção
Lar Setas de navegação Lista de modelos AL Setas de navegação Mistral-Large
Modelo Parâmetro Quantidade
N/A
Modelo Parâmetro Quantidade
Organização afiliada
Mistral AI
Organização afiliada
Código fechado
Tipo de licença
Tempo de liberação
25 de Fevereiro de 2024
Tempo de liberação
Introdução ao modelo
Mistral-Large é um modelo de API da Mistral, com três modelos na série: Pequeno, Médio, Grande, sendo o Grande o maior.
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
5.0
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui conhecimento central das disciplinas convencionais, mas tem cobertura limitada de campos interdisciplinares de ponta.
8.3
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
5.0
Modelo relacionado
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 é um avançado modelo de Linguagem Grande densa (LLM) de 123 bilhões de parâmetros com capacidades de raciocínio, conhecimento e codificação de ponta, extendendo o Mistral-Large-Instruct-2407 com melhor suporte para Contexto Longo, Chamada de Função e Sistema de Prompt.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 é um avançado modelo de Linguagem Grande (LLM) denso de 123 bilhões de parâmetros com capacidades de raciocínio, conhecimento e codificação de ponta, extendendo o Mistral-Large-Instruct-2407 com melhor suporte a contexto longo, chamada de funções e sistema de prompt.
Mistral-Small-Instruct-2409 Com 22 bilhões de parâmetros, o Mistral Small v24.09 oferece aos clientes um ponto intermediário conveniente entre o Mistral NeMo 12B e o Mistral Large 2, proporcionando uma solução de baixo custo que pode ser implantada em várias plataformas e ambientes.
Mistral-Small-Instruct-2409 Com 22 bilhões de parâmetros, o Mistral Small v24.09 oferece aos clientes um ponto intermediário conveniente entre o Mistral NeMo 12B e o Mistral Large 2, proporcionando uma solução de baixo custo que pode ser implantada em várias plataformas e ambientes.
Ministral-8B-Instruct-2410 O modelo de linguagem Ministral-8B-Instruct-2410 é um modelo significativamente ajustado por instrução que supera modelos existentes de tamanho semelhante, lançado sob a licença de pesquisa Mistral.
Documentos relevantes
Google Gemini Code Assist aprimora codificação IA com recursos agentes Gemini Code Assist, o assistente de programação com IA do Google, está lançando novos recursos "agentes" em modo de visualização. Na recente conferência Cloud Next, o Google revelo
Microsoft open-source editor de texto CLI no Build Microsoft Aposta Tudo em Open Source no Build 2025Na conferência Build 2025 deste ano, a Microsoft deu grandes passos no mundo open source, lançando várias ferramentas e aplicações
OpenAI aprimora modelo de IA por trás do seu Operator Agent OpenAI Leva o Operator para o Próximo Nível A OpenAI está dando um grande upgrade ao seu agente de IA autônomo, o Operator. As próximas atualizações significam que o Operator pass
O fundo de futuro da IA do Google pode ter que agir com cuidado Novo Iniciativa de Investimento em IA da Google: Uma Mudança Estratégica Diante da Fiscalização RegulatóriaO recente anúncio da Google sobre o Fundo de Futuros em IA marca um movim
Ai YouTube Miniatria Gerador: Aumente suas visualizações de vídeo O poder da IA ​​na miniatura do YouTube criando o cenário digital de hoje, uma miniatura cativante do YouTube é crucial para chamar a atenção dos espectadores. Com milhões de vídeos competindo por cliques, uma miniatura impressionante pode fazer toda a diferença. Os geradores de miniatura do YouTube emergiram como um jogo
Comparação de modelos
Inicie a comparação
De volta ao topo
OR