Ana Rojo Echeburúa - 최고의 AI 리더 및 혁신가 | 프로필, 주요 이정표 및 프로젝트 - xix.ai
옵션

품질 AI 도구를 발견하십시오

업무 효율성을 향상시키는 데 도움이되는 세계 최고의 인공 지능 도구를 모으십시오.

AL 도구 검색…
AI 유명인
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

알리바바 클라우드 AI 및 데이터 전문가
출생 연도  알 수 없음
국적  Spanish

중요한 이정표

2015 응용수학 박사학위

데이터 기반 AI 솔루션에 중점을 두고 박사학위를 취득함

2020 알리바바 클라우드 가입

AI 모델 개발 및 배포 작업 시작

2024 Qwen-Agent 프레임워크

LLM 애플리케이션을 위한 Qwen-Agent 프레임워크에 기여함

AI 제품

Qwen3는 Qwen 시리즈의 최신 대형 언어 모델로, 밀집 모델과 전문가 혼합(MoE) 모델의 포괄적인 제품군을 제공합니다.

Qwen3는 Qwen 시리즈의 최신 대형 언어 모델로, 밀집 모델과 전문가 혼합(MoE) 모델의 포괄적인 세트를 제공합니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 타이어, 아랍어 등 29개 이상의 언어를 지원합니다.

Qwen3은 Qwen 시리즈의 최신 세대 대형 언어 모델로, 밀집형 및 전문가 혼합(MoE) 모델의 포괄적인 세트를 제공합니다.

Qwen1.5는 Qwen2의 베타 버전으로 SwiGLU 활성화 함수, RoPE, 멀티헤드 어텐션 메커니즘을 포함한 디코더 전용 트랜스포머 모델 아키텍처를 유지합니다. 9개의 다양한 모델 크기를 제공하며 다국어 및 챗 모델 기능을 강화하고 최대 32,768 토큰의 컨텍스트 길이를 지원합니다. 모든 모델에는 역할 연기용 시스템 프롬프트가 활성화되어 있으며 코드는 transformers에서 네이티브 구현을 지원합니다.

Qwen1.5은 Qwen2의 베타 버전으로, SwiGLU 활성화, RoPE, 멀티헤드 어텐션 메커니즘을 포함한 디코더 전용 트랜스포머 모델 아키텍처를 유지합니다. 9가지 모델 크기를 제공하며 다국어 및 챗 모델 능력이 향상되었으며 32,768 토큰의 컨텍스트 길이를 지원합니다. 모든 모델에는 역할 연기를 위한 시스템 프롬프트가 활성화되어 있으며 코드는 transformers에서 네이티브로 구현됩니다.

Qwen1.5는 Qwen2의 베타 버전으로, SwiGLU 활성화, RoPE, 멀티헤드 어텐션 메커니즘을 갖춘 디코더 전용 트랜스포머 모델 아키텍처를 유지합니다. 9가지 모델 크기를 제공하며 다국어 및 챗 모델 능력이 향상되었으며 최대 32,768 토큰의 컨텍스트 길이를 지원합니다. 모든 모델에는 역할 연기용 시스템 프롬프트가 활성화되어 있으며 코드는 transformers에서 네이티브 구현을 지원합니다.

Qwen-Max는 알리바바에서 만든 API 모델입니다. 이는 0428 버전입니다.

Qwen3은 Qwen 시리즈의 최신 대형 언어 모델로, 밀집형 및 전문가 혼합(MoE) 모델의 포괄적인 세트를 제공합니다.

Qwen3은 Qwen 시리즈의 최신 세대 대형 언어 모델로, 밀집형 및 전문가 혼합(MoE) 모델의 포트폴리오를 제공합니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 태국어, 아랍어 등 29개 이상의 언어에 대한 다국어 지원을 유지합니다.

Qwen-Max는 알리바바에서 만든 API 모델입니다. 이는 0428 버전입니다.

Qwen1.5는 Qwen2의 베타 버전으로, 여전히 SwiGLU 활성화 함수, RoPE, 멀티 헤드 어텐션 메커니즘을 포함한 디코더 전용 트랜스포머 모델 아키텍처를 유지합니다. 9가지 모델 크기를 제공하며 다국어 및 채팅 모델 기능이 강화되었으며 최대 32,768토큰의 컨텍스트 길이를 지원합니다. 모든 모델에서 시스템 프롬프트 역할 연기를 위해 활성화되었으며 코드는 transformers에서 네이티브 구현을 지원합니다.

Qwen2은 Qwen 대형 언어 모델의 새로운 시리즈입니다.

Qwen2는 Qwen 시리즈의 대형 언어 모델 신규 시리즈다.

Qwen 2.5 Max는 20조 개 이상의 토큰 사전 훈련 데이터와 세심하게 설계된 사후 훈련 방식을 통해 훈련된 대규모 MoE(전문가 혼합) 모델입니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 타이어, 아랍어 등 29개 이상의 언어에 대한 다국어 지원을 유지합니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 태국어, 아랍어 등 29개 이상의 언어를 다룹니다.

QwQ-32B-Preview 은 Qwen 팀이 개발한 실험적 연구 모델로, AI 추론 능력 향상을 위해 설계되었습니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 태국어, 아랍어 등 29개 이상의 언어를 지원합니다.

Qwen1.5는 Qwen2의 베타 버전으로, SwiGLU 활성화 함수, RoPE, 멀티헤드 어텐션 메커니즘을 갖춘 디코더 전용 트랜스포머 모델을 유지합니다. 아홉 가지 모델 크기를 제공하며 다국어 및 채팅 모델 능력이 향상되었으며, 32,768토큰의 컨텍스트 길이를 지원합니다. 모든 모델에서 역할 연기 시스템 프롬프트가 활성화되며 코드는 transformers에서 네이티브 구현을 지원합니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 태국어, 아랍어 등 29개 이상의 언어를 다룹니다.

Qwen1.5은 Qwen2의 베타 버전으로, SwiGLU 활성화, RoPE, 멀티헤드 어텐션 메커니즘을 포함한 디코더-온리 트랜스포머 모델 아키텍처를 유지합니다. 9가지 모델 크기를 제공하며 다국어 및 채팅 모델 능력이 향상되었으며 최대 32,768토큰의 컨텍스트 길이를 지원합니다. 모든 모델에서 역할 연기용 시스템 프롬프트가 활성화되며 코드는 transformers에서 네이티브 구현을 지원합니다.

개인 프로필

응용 수학 및 생성 AI 전문 지식을 바탕으로 Qwen 개발에 기여.

위로 돌아갑니다
OR