Ana Rojo Echeburúa - 최고의 AI 리더 및 혁신가 | 프로필, 주요 이정표 및 프로젝트 - xix.ai
옵션

품질 AI 도구를 발견하십시오

업무 효율성을 향상시키는 데 도움이되는 세계 최고의 인공 지능 도구를 모으십시오.

AL 도구 검색…
AI 유명인
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

알리바바 클라우드 AI 및 데이터 전문가
출생 연도  알 수 없음
국적  Spanish

중요한 이정표

2015 응용수학 박사학위

데이터 기반 AI 솔루션에 중점을 두고 박사학위를 취득함

2020 알리바바 클라우드 가입

AI 모델 개발 및 배포 작업 시작

2024 Qwen-Agent 프레임워크

LLM 애플리케이션을 위한 Qwen-Agent 프레임워크에 기여함

AI 제품

Qwen3 é a última geração de modelos de linguagem de grande escala da série Qwen, oferecendo uma coleção abrangente de modelos densos e de mistura de especialistas (MoE).

Qwen3 é a geração mais recente de grandes modelos de linguagem na série Qwen, oferecendo uma suíte abrangente de modelos densos e de mixture-of-experts (MoE).

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelos e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa nos transformers.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador decoder-only com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para interpretação de papéis, e o código suporta implementação nativa nos transformers.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador de apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e possui capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para atuação de papéis e o código suporta implementação nativa em transformers.

Qwen-Max é um modelo de API produzido pela Alibaba. Este é o versão 0428.

Qwen3 é a última geração de modelos de linguagem grande na série Qwen, oferecendo um conjunto abrangente de modelos densos e mistura de especialistas (MoE).

Qwen3 é a mais recente geração de modelos de linguagem grande na série Qwen, oferecendo uma ampla gama de modelos densos e mistura de especialistas (MoE).

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen-Max é um modelo de API produzido pela Alibaba. Esta é a versão 0428.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo de transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção de múltiplas cabeças. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa no transformers.

Qwen2 é a nova série de modelos de linguagem grande Qwen.

Qwen2 é a nova série dos modelos grandes de linguagem Qwen.

Qwen 2.5 Max é um modelo MoE (Mistura de Especialistas) de grande escala treinado com mais de 20 trilhões de tokens de dados de pré-treinamento e um esquema cuidadosamente projetado de pós-treinamento.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

QwQ-32B-Preview é um modelo de pesquisa experimental desenvolvido pela equipe do Qwen, com foco em avançar as capacidades de raciocínio da IA.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção multi-cabeça. Oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma extensão de contexto de 32.768 tokens. Todos os modelos possuem prompts de sistema habilitados para interpretação de papéis, e o código suporta implementação nativa no Transformers.

Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.

Qwen1.5 é a versão beta do Qwen2, mantendo sua arquitetura como um modelo transformador apenas decodificador com ativação SwiGLU, RoPE e mecanismos de atenção multi-cabeça. Ele oferece nove tamanhos de modelo e tem capacidades multilíngues e de chat aprimoradas, suportando uma comprimento de contexto de 32.768 tokens. Todos os modelos têm prompts de sistema habilitados para atuação de papéis, e o código suporta implementação nativa em transformers.

개인 프로필

응용 수학 및 생성 AI 전문 지식을 바탕으로 Qwen 개발에 기여.

위로 돌아갑니다
OR