opção
Lar
Lista de modelos AL
Qwen-Max-0428
Modelo Parâmetro Quantidade
N/A
Modelo Parâmetro Quantidade
Organização afiliada
Alibaba
Organização afiliada
Código fechado
Tipo de licença
Tempo de liberação
28 de Abril de 2024
Tempo de liberação

Introdução ao modelo
Qwen-Max é um modelo de API produzido pela Alibaba. Este é o versão 0428.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
6.2
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui conhecimento central das disciplinas convencionais, mas tem cobertura limitada de campos interdisciplinares de ponta.
7.6
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
5.2
Modelo relacionado
Qwen3-235B-A22B-Instruct-2507 Qwen3 é a última geração de modelos de linguagem de grande escala da série Qwen, oferecendo uma coleção abrangente de modelos densos e de mistura de especialistas (MoE).
Qwen3-235B-A22B-Thinking-2507 Qwen3 é a geração mais recente de grandes modelos de linguagem na série Qwen, oferecendo uma suíte abrangente de modelos densos e de mixture-of-experts (MoE).
Qwen2.5-7B-Instruct Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.
Qwen3-32B (Thinking) Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).
Qwen1.5-72B-Chat Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelos e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa nos transformers.
Documentos relevantes
Gemini Nano Banana aprimora a consistência e o controle da edição de imagens corporativas em escala - ainda há espaço para melhorias Apresentando o Gemini 2.5 Flash ImageO Google apresentou o Gemini 2.5 Flash Image, anteriormente conhecido internamente como "nanobanana" durante os testes beta. Esse modelo avançado oferece às empres
Inovações em hardware de IA: Humanoides e AVs ocupam o centro do palco no TechCrunch Disrupt 2025 TechCrunch Disrupt 2025: O futuro do hardware de IAMarque em sua agenda os dias 27 a 29 de outubro, quando o TechCrunch Disrupt retorna ao Moscone West, em São Francisco, reunindo mais de 10.000 líder
Google amplia o acesso à IA do NotebookLM para estudantes menores de 18 anos O Google revelou atualizações significativas para sua plataforma Classroom, introduzindo ferramentas Gemini AI gratuitas para educadores e expandindo o acesso ao NotebookLM para alunos menores de 18 a
ServiceNow Lança IA Unificada para Simplificar a Complexidade Empresarial A ServiceNow inicia o Knowledge 2025 apresentando sua revolucionária plataforma de IA—uma solução unificada projetada para harmonizar diversas ferramentas de IA e assistentes digitais em ambientes empresariais. Ao estabelecer parcerias estratégicas c
EUA pressionam para que a Nvidia reduza as vendas de chips de IA para a China Relatórios recentes do The New York Times e do The Financial Times revelam que o governo Trump exigiu que a Nvidia e a AMD alocassem 15% de sua receita de vendas de chips de IA da China para os cofres
Comparação de modelos
Inicie a comparação
De volta ao topo
OR