Junyang Lin - Principais Líderes e Inovadores de IA | Perfis, Marcos e Projetos - xix.ai
opção

Descubra ferramentas de qualidade de qualidade

Reunir as principais ferramentas de inteligência artificial do mundo para ajudar a melhorar a eficiência do trabalho

Procure por ferramentas AL…
Lar
Celebridade de IA
Junyang Lin
Junyang Lin

Junyang Lin

Pesquisador, Alibaba Cloud
Ano de nascimento  1985
Nacionalidade  Chinese

Marco importante

2018 Juntou-se à Alibaba AI

Iniciou pesquisa em IA na Alibaba Cloud

Lançamento do Qwen 1 de 2023

Contribuiu para o desenvolvimento do modelo Qwen 1

Lançamento do Qwen 3 em 2025

Liderou o desenvolvimento do Qwen 3, um LLM de ponta

Produto de IA

Qwen3 é a última geração de modelos de linguagem de grande escala da série Qwen, oferecendo uma coleção abrangente de modelos densos e de mistura de especialistas (MoE).

Qwen3 é a geração mais recente de grandes modelos de linguagem na série Qwen, oferecendo uma suíte abrangente de modelos densos e de mixture-of-experts (MoE).

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelos e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa nos transformers.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador decoder-only com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para interpretação de papéis, e o código suporta implementação nativa nos transformers.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador de apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e possui capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para atuação de papéis e o código suporta implementação nativa em transformers.

Qwen-Max é um modelo de API produzido pela Alibaba. Este é o versão 0428.

Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo um conjunto abrangente de modelos densos e mistura de especialistas (MoE).

Qwen3 é a mais recente geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen-Max é um modelo de API produzido pela Alibaba. Esta é a versão 0428.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa no transformers.

Qwen2 é a nova série de modelos de linguagem grande Qwen.

Qwen2 é a nova série dos modelos grandes de linguagem Qwen.

Qwen 2.5 Max é um modelo MoE (Mistura de Especialistas) de grande escala treinado com mais de 20 trilhões de tokens de dados de pré-treinamento e um esquema cuidadosamente projetado de pós-treinamento.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

QwQ-32B-Preview é um modelo de pesquisa experimental desenvolvido pela equipe do Qwen, com foco em avançar as capacidades de raciocínio da IA.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção multi-cabeça. Oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para interpretação de papéis, e o código suporta implementação nativa no Transformers.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção multi-cabeça. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma comprimento de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa em transformers.

Perfil pessoal

Lidera a pesquisa em modelos Qwen, avançando em IA multimodal e de código aberto.

De volta ao topo
OR