Ana Rojo Echeburúa - 顶尖 AI 领袖与创新者 | 个人简介、重要里程碑与项目 - xix.ai
选项

发现高质量的人工智能工具

将全球领先的人工智能工具聚集在一起,以帮助提高工作效率

Search for Al tools…
首页
AI 名人
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

阿里巴巴云AI与数据专家
出生年份  未知
国籍  Spanish

重要里程碑

2015年应用数学博士

获得博士学位,专注于数据驱动的AI解决方案

2020年加入阿里巴巴云

开始从事AI模型开发与部署工作

2024 Qwen-Agent框架

为LLM应用贡献了Qwen-Agent框架

人工智能产品

Qwen3 é a última geração de modelos de linguagem de grande escala da série Qwen, oferecendo uma coleção abrangente de modelos densos e de mistura de especialistas (MoE).

Qwen3 é a geração mais recente de grandes modelos de linguagem na série Qwen, oferecendo uma suíte abrangente de modelos densos e de mixture-of-experts (MoE).

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelos e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa nos transformers.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador decoder-only com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para interpretação de papéis, e o código suporta implementação nativa nos transformers.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador de apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e possui capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para atuação de papéis e o código suporta implementação nativa em transformers.

Qwen-Max é um modelo de API produzido pela Alibaba. Este é o versão 0428.

Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo um conjunto abrangente de modelos densos e mistura de especialistas (MoE).

Qwen3 é a mais recente geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen-Max é um modelo de API produzido pela Alibaba. Esta é a versão 0428.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa no transformers.

Qwen2 é a nova série de modelos de linguagem grande Qwen.

Qwen2 é a nova série dos modelos grandes de linguagem Qwen.

Qwen 2.5 Max é um modelo MoE (Mistura de Especialistas) de grande escala treinado com mais de 20 trilhões de tokens de dados de pré-treinamento e um esquema cuidadosamente projetado de pós-treinamento.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

QwQ-32B-Preview é um modelo de pesquisa experimental desenvolvido pela equipe do Qwen, com foco em avançar as capacidades de raciocínio da IA.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção multi-cabeça. Oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para interpretação de papéis, e o código suporta implementação nativa no Transformers.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção multi-cabeça. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma comprimento de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa em transformers.

个人简介

在应用数学和生成式AI领域具有专长,助力Qwen的开发。

返回顶部
OR