opção

Lista de modelos AL

Deslize para a esquerda e para a direita para ver mais
Nome do modelo Provedor Parâmetros PONTUAÇÃO
Data de lançamento
COMPARAR
O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.
DeepSeek 671B 5.4 24 de Março de 2025
o4-mini no modo alto, que tem um tempo de resposta mais longo e maior capacidade de raciocínio.
OpenAI N/A 6.2 16 de Abril de 2025
O mais recente modelo MoE de código aberto lançado pela Tencent
Tencent 80B 5.1 27 de Junho de 2025
O mais recente modelo lançado pela Moonshot AI, com capacidades de codificação aprimoradas e desempenho superior em tarefas gerais de agentes, construído sobre uma arquitetura MoE.
Moonshot 1000B 5.5 11 de Julho de 2025
O Modelo de Linguagem de Grande Escala Bailing é um LLM de propósito geral que concluiu o processo de registro de IA generativa, treinado em trilhões de tokens. Ele adota o número de versão Bailing-Pro-20250225.
Ant Group N/A 4.4 25 de Fevereiro de 2025
O modelo de inferência Spark X1 lançado pela iFlytek, com base em liderar tarefas matemáticas nacionais, compara o desempenho de tarefas gerais, como inferência, geração de texto e compreensão de linguagem, com a série o da OpenAI e o DeepSeek R1.
iFLYTEK N/A 5.4 20 de Julho de 2025
MiniMax-Text-01 é um modelo de linguagem poderoso com um total de 456 bilhões de parâmetros, dos quais 45,9 bilhões são ativados por token. Para desbloquear melhor as capacidades de contexto longo do modelo, MiniMax-Text-01 adota uma arquitetura híbrida que combina Lightning Attention, Softmax Attention e Mixture-of-Experts (MoE).
MiniMax 456B 3.8 15 de Janeiro de 2025
A nova série de modelos de raciocínio GLM-4.5 lançada pela GLM.
Zhipu AI 110B 5.6 29 de Julho de 2025
O primeiro modelo de raciocínio de atenção híbrida em grande escala e de peso aberto do mundo, lançado pela Minimax.
MiniMax 456B 5.5 17 de Junho de 2025
Qwen3 é a última geração de modelos de linguagem de grande escala da série Qwen, oferecendo uma coleção abrangente de modelos densos e de mistura de especialistas (MoE).
Alibaba 235B 5.7 22 de Julho de 2025
De volta ao topo
OR