Ana Rojo Echeburúa - Leaders et innovateurs IA | Profils, étapes clés & projets - xix.ai
option

Découvrez des outils AI de qualité

Rassemblez les principaux outils d'intelligence artificielle du monde pour aider à améliorer l'efficacité du travail

Rechercher des outils AL…
Maison
Célébrité de l’IA
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

Spécialiste en IA et données, Alibaba Cloud
Année de naissance  inconnu
Nationalité  Spanish

Étape importante

Doctorat 2015 en Mathématiques Appliquées

Obtenu un doctorat, axé sur les solutions d'IA basées sur les données

2020 Rejoint Alibaba Cloud

Commencé à travailler sur le développement et le déploiement de modèles d'IA

Cadre Qwen-Agent 2024

Contribué au cadre Qwen-Agent pour les applications LLM

Produit IA

Qwen3 é a última geração de modelos de linguagem de grande escala da série Qwen, oferecendo uma coleção abrangente de modelos densos e de mistura de especialistas (MoE).

Qwen3 é a geração mais recente de grandes modelos de linguagem na série Qwen, oferecendo uma suíte abrangente de modelos densos e de mixture-of-experts (MoE).

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelos e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa nos transformers.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador decoder-only com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para interpretação de papéis, e o código suporta implementação nativa nos transformers.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador de apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e possui capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para atuação de papéis e o código suporta implementação nativa em transformers.

Qwen-Max é um modelo de API produzido pela Alibaba. Este é o versão 0428.

Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo um conjunto abrangente de modelos densos e mistura de especialistas (MoE).

Qwen3 é a mais recente geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen-Max é um modelo de API produzido pela Alibaba. Esta é a versão 0428.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa no transformers.

Qwen2 é a nova série de modelos de linguagem grande Qwen.

Qwen2 é a nova série dos modelos grandes de linguagem Qwen.

Qwen 2.5 Max é um modelo MoE (Mistura de Especialistas) de grande escala treinado com mais de 20 trilhões de tokens de dados de pré-treinamento e um esquema cuidadosamente projetado de pós-treinamento.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

QwQ-32B-Preview é um modelo de pesquisa experimental desenvolvido pela equipe do Qwen, com foco em avançar as capacidades de raciocínio da IA.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção multi-cabeça. Oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para interpretação de papéis, e o código suporta implementação nativa no Transformers.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção multi-cabeça. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma comprimento de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa em transformers.

Profil personnel

Contribue au développement de Qwen avec une expertise en mathématiques appliquées et IA générative.

Retour en haut
OR