opção
Lar
Lista de modelos AL
Qwen1.5-32B-Chat
Modelo Parâmetro Quantidade
32B
Modelo Parâmetro Quantidade
Organização afiliada
Alibaba
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
3 de Abril de 2024
Tempo de liberação

Introdução ao modelo
Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa no transformers.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Pode lidar com a compreensão básica das conversas cotidianas, mas luta com metáforas e termos técnicos.
6.0
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
6.8
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
4.1
Modelo relacionado
Qwen3-235B-A22B-Instruct-2507 Qwen3 é a última geração de modelos de linguagem de grande escala da série Qwen, oferecendo uma coleção abrangente de modelos densos e de mistura de especialistas (MoE).
Qwen3-235B-A22B-Thinking-2507 Qwen3 é a geração mais recente de grandes modelos de linguagem na série Qwen, oferecendo uma suíte abrangente de modelos densos e de mixture-of-experts (MoE).
Qwen2.5-7B-Instruct Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.
Qwen3-32B (Thinking) Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).
Qwen1.5-72B-Chat Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelos e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa nos transformers.
Documentos relevantes
Encontrando força por meio da fé: Explorando seu poder pacífico Em meio ao caos e às pressões da vida moderna, descobrir a tranquilidade interior e a resiliência duradoura torna-se essencial. A fé se mantém firme como um pilar para inúmeras pessoas - oferecendo or
Impulsione a criação de sua lista de IA com conteúdo PLR: O guia definitivo A criação de uma lista de e-mails de alta qualidade é a base de qualquer estratégia de marketing digital bem-sucedida. Ferramentas modernas de IA combinadas com conteúdo de direitos de marca própria (
Revolução no dimensionamento de anúncios com IA: Aumentar a criatividade em 10 vezes em 2025 O cenário da publicidade digital continua sua rápida evolução, tornando a inovação imprescindível para o sucesso competitivo. À medida que nos aproximamos de 2025, a fusão da inteligência artificial e
Sistemas de recrutamento com IA expõem preconceitos ocultos que afetam as decisões de contratação Os vieses ocultos no recrutamento por IA: Como lidar com a discriminação sistêmica nos algoritmos de contrataçãoIntroduçãoAs ferramentas de contratação baseadas em IA prometem transformar o recrutamen
Platôs de adoção de IA corporativa, revelam dados da Ramp Adoção de IA corporativa atinge um platôEmbora as empresas inicialmente tenham se apressado para implementar soluções de inteligência artificial, o entusiasmo parece estar se estabilizando à medida qu
Comparação de modelos
Inicie a comparação
De volta ao topo
OR