opção
Lar
Lista de modelos AL
Qwen2-7B-Instruct
Modelo Parâmetro Quantidade
7B
Modelo Parâmetro Quantidade
Organização afiliada
Alibaba
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
6 de Junho de 2024
Tempo de liberação

Introdução ao modelo
Qwen2 é a nova série dos modelos grandes de linguagem Qwen.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
4.3
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
6.4
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
3.6
Modelo relacionado
Qwen3-235B-A22B-Instruct-2507 Qwen3 é a última geração de modelos de linguagem de grande escala da série Qwen, oferecendo uma coleção abrangente de modelos densos e de mistura de especialistas (MoE).
Qwen3-235B-A22B-Thinking-2507 Qwen3 é a geração mais recente de grandes modelos de linguagem na série Qwen, oferecendo uma suíte abrangente de modelos densos e de mixture-of-experts (MoE).
Qwen2.5-7B-Instruct Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.
Qwen3-32B (Thinking) Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).
Qwen1.5-72B-Chat Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelos e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa nos transformers.
Documentos relevantes
Tim Cook anuncia grande investimento em IA durante boom do setor de tecnologia O CEO da Apple, Tim Cook, enfatizou o potencial transformador da IA durante uma rara reunião de toda a empresa, coberta pela Bloomberg, abordando a abordagem cautelosa da Apple para a implantação de IA em meio a contratempos recentes. A gigante da te
Guia com tecnologia de IA: Como criar anúncios de alto desempenho passo a passo Na era digital, a criação de anúncios de alto desempenho é essencial para o sucesso das empresas de comércio eletrônico. Este guia abrangente orienta você na criação de anúncios cativantes usando ferr
Spotify Permite Que Utilizadores Gratuitos Escolham Músicas Sob Demanda Spotify Expande Nível Gratuito com Seleção de Músicas Sob DemandaEm uma mudança de política significativa, a Spotify eliminou uma das limitações mais frustrantes para os seus utilizadores do nível gratuito, enquanto introduziu áudio sem perdas para o
YouTube lança recurso de buscas com IA semelhante ao Google Overview O YouTube introduziu recursos inovadores com tecnologia de IA projetados para agilizar a descoberta de conteúdo, revelou a empresa esta semana. A plataforma lançou um carrossel de resultados de busca aprimorado pela tecnologia de IA, espelhando os Re
Flow lança a ferramenta de filmagem Veo 3, baseada em IA Conheça o Flow: nosso revolucionário assistente de produção de filmes com tecnologia de IA, projetado para transformar os fluxos de trabalho criativos.Criado especificamente para contadores de históri
Comparação de modelos
Inicie a comparação
De volta ao topo
OR