Ana Rojo Echeburúa - トップAIリーダー&イノベーター|プロフィール、節目、プロジェクト - xix.ai
オプション

高品質のAIツールを発見します

世界をリードする人工知能ツールを集めて、作業効率を向上させるのに役立ちます

ALツールを検索します…
AI著名人
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

アリババクラウドAI・データスペシャリスト
生年  不明
国籍  Spanish

重要な節目

2015 応用数学博士号

データ駆動型AIソリューションに焦点を当てた博士号を取得

2020年にアリババクラウドに加入

AIモデルの開発とデプロイメントを開始

2024 Qwen-Agentフレームワーク

LLMアプリケーションのためのQwen-Agentフレームワークに貢献しました

AI製品

Qwen3는 Qwen 시리즈의 최신 대형 언어 모델로, 밀집 모델과 전문가 혼합(MoE) 모델의 포괄적인 제품군을 제공합니다.

Qwen3는 Qwen 시리즈의 최신 대형 언어 모델로, 밀집 모델과 전문가 혼합(MoE) 모델의 포괄적인 세트를 제공합니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 타이어, 아랍어 등 29개 이상의 언어를 지원합니다.

Qwen3은 Qwen 시리즈의 최신 세대 대형 언어 모델로, 밀집형 및 전문가 혼합(MoE) 모델의 포괄적인 세트를 제공합니다.

Qwen1.5는 Qwen2의 베타 버전으로 SwiGLU 활성화 함수, RoPE, 멀티헤드 어텐션 메커니즘을 포함한 디코더 전용 트랜스포머 모델 아키텍처를 유지합니다. 9개의 다양한 모델 크기를 제공하며 다국어 및 챗 모델 기능을 강화하고 최대 32,768 토큰의 컨텍스트 길이를 지원합니다. 모든 모델에는 역할 연기용 시스템 프롬프트가 활성화되어 있으며 코드는 transformers에서 네이티브 구현을 지원합니다.

Qwen1.5은 Qwen2의 베타 버전으로, SwiGLU 활성화, RoPE, 멀티헤드 어텐션 메커니즘을 포함한 디코더 전용 트랜스포머 모델 아키텍처를 유지합니다. 9가지 모델 크기를 제공하며 다국어 및 챗 모델 능력이 향상되었으며 32,768 토큰의 컨텍스트 길이를 지원합니다. 모든 모델에는 역할 연기를 위한 시스템 프롬프트가 활성화되어 있으며 코드는 transformers에서 네이티브로 구현됩니다.

Qwen1.5는 Qwen2의 베타 버전으로, SwiGLU 활성화, RoPE, 멀티헤드 어텐션 메커니즘을 갖춘 디코더 전용 트랜스포머 모델 아키텍처를 유지합니다. 9가지 모델 크기를 제공하며 다국어 및 챗 모델 능력이 향상되었으며 최대 32,768 토큰의 컨텍스트 길이를 지원합니다. 모든 모델에는 역할 연기용 시스템 프롬프트가 활성화되어 있으며 코드는 transformers에서 네이티브 구현을 지원합니다.

Qwen-Max는 알리바바에서 만든 API 모델입니다. 이는 0428 버전입니다.

Qwen3은 Qwen 시리즈의 최신 대형 언어 모델로, 밀집형 및 전문가 혼합(MoE) 모델의 포괄적인 세트를 제공합니다.

Qwen3은 Qwen 시리즈의 최신 세대 대형 언어 모델로, 밀집형 및 전문가 혼합(MoE) 모델의 포트폴리오를 제공합니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 태국어, 아랍어 등 29개 이상의 언어에 대한 다국어 지원을 유지합니다.

Qwen-Max는 알리바바에서 만든 API 모델입니다. 이는 0428 버전입니다.

Qwen1.5는 Qwen2의 베타 버전으로, 여전히 SwiGLU 활성화 함수, RoPE, 멀티 헤드 어텐션 메커니즘을 포함한 디코더 전용 트랜스포머 모델 아키텍처를 유지합니다. 9가지 모델 크기를 제공하며 다국어 및 채팅 모델 기능이 강화되었으며 최대 32,768토큰의 컨텍스트 길이를 지원합니다. 모든 모델에서 시스템 프롬프트 역할 연기를 위해 활성화되었으며 코드는 transformers에서 네이티브 구현을 지원합니다.

Qwen2은 Qwen 대형 언어 모델의 새로운 시리즈입니다.

Qwen2는 Qwen 시리즈의 대형 언어 모델 신규 시리즈다.

Qwen 2.5 Max는 20조 개 이상의 토큰 사전 훈련 데이터와 세심하게 설계된 사후 훈련 방식을 통해 훈련된 대규모 MoE(전문가 혼합) 모델입니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 타이어, 아랍어 등 29개 이상의 언어에 대한 다국어 지원을 유지합니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 태국어, 아랍어 등 29개 이상의 언어를 다룹니다.

QwQ-32B-Preview 은 Qwen 팀이 개발한 실험적 연구 모델로, AI 추론 능력 향상을 위해 설계되었습니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 태국어, 아랍어 등 29개 이상의 언어를 지원합니다.

Qwen1.5는 Qwen2의 베타 버전으로, SwiGLU 활성화 함수, RoPE, 멀티헤드 어텐션 메커니즘을 갖춘 디코더 전용 트랜스포머 모델을 유지합니다. 아홉 가지 모델 크기를 제공하며 다국어 및 채팅 모델 능력이 향상되었으며, 32,768토큰의 컨텍스트 길이를 지원합니다. 모든 모델에서 역할 연기 시스템 프롬프트가 활성화되며 코드는 transformers에서 네이티브 구현을 지원합니다.

Qwen2와 마찬가지로, Qwen2.5 언어 모델은 최대 128K 토큰을 지원하며 최대 8K 토큰을 생성할 수 있습니다. 또한 중국어, 영어, 프랑스어, 스페인어, 포르투갈어, 독일어, 이탈리아어, 러시아어, 일본어, 한국어, 베트남어, 태국어, 아랍어 등 29개 이상의 언어를 다룹니다.

Qwen1.5은 Qwen2의 베타 버전으로, SwiGLU 활성화, RoPE, 멀티헤드 어텐션 메커니즘을 포함한 디코더-온리 트랜스포머 모델 아키텍처를 유지합니다. 9가지 모델 크기를 제공하며 다국어 및 채팅 모델 능력이 향상되었으며 최대 32,768토큰의 컨텍스트 길이를 지원합니다. 모든 모델에서 역할 연기용 시스템 프롬프트가 활성화되며 코드는 transformers에서 네이티브 구현을 지원합니다.

個人プロフィール

応用数学と生成AIの専門知識を活かし、Qwenの開発に貢献。

トップに戻ります
OR