Ana Rojo Echeburúa - 최고의 AI 리더 및 혁신가 | 프로필, 주요 이정표 및 프로젝트 - xix.ai
옵션

품질 AI 도구를 발견하십시오

업무 효율성을 향상시키는 데 도움이되는 세계 최고의 인공 지능 도구를 모으십시오.

AL 도구 검색…
AI 유명인
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

알리바바 클라우드 AI 및 데이터 전문가
출생 연도  알 수 없음
국적  Spanish

중요한 이정표

2015 응용수학 박사학위

데이터 기반 AI 솔루션에 중점을 두고 박사학위를 취득함

2020 알리바바 클라우드 가입

AI 모델 개발 및 배포 작업 시작

2024 Qwen-Agent 프레임워크

LLM 애플리케이션을 위한 Qwen-Agent 프레임워크에 기여함

AI 제품

Qwen3は、Qwenシリーズの最新世代の大規模言語モデルであり、密なモデルと専門家混合(MoE)モデルの包括的なスイートを提供します。

Qwen3は、Qwenシリーズの最新世代の大規模言語モデルであり、密なモデルとエキスパート混合(MoE)モデルの包括的なスイートを提供します。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen3 は Qwen シリーズの最新世代の大型言語モデルであり、密集型および混合専門家(MoE)モデルの包括的なセットを提供しています。

Qwen1.5はQwen2のベータ版であり、依然としてSwiGLU活性化関数、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのTransformerモデルを維持しています。9つの異なるモデルサイズがあり、多言語およびチャットモデルの能力が向上しており、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルとしてのアーキテクチャを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、32,768トークンのコンテキスト長をサポートしています。すべてのモデルではキャラクター設定用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルのアーキテクチャを維持しています。9つのモデルサイズがあり、多言語およびチャットモデルの能力が向上し、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードは transformers でネイティブ実装されています。

Qwen-Max はアリババが提供する API モデルです。これは 0428 バージョンです。

Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、密集型および専門家ミキシチャーモデル(MoE)の包括的なセットを提供しています。

Qwen3 は Qwen シリーズの最新世代の大規模言語モデルであり、密集型および混合専門家モデル(MoE)の一式を提供しています。

Qwen2と同じように、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen-Max はアリババによって開発された API モデルです。これは 0428 バージョンです。

Qwen1.5はQwen2のベータ版であり、依然としてSwiGLUアクティベーション、RoPE、マルチヘッドアテンション機構を含むデコーダーのみのTransformerモデルとして構築されています。9つのモデルサイズがあり、多言語およびチャットモデル機能が強化されており、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装をサポートしています。

Qwen2 は Qwen 大規模言語モデルの新しいシリーズです。

Qwen2 は Qwen シリーズの大規模言語モデルの新シリーズです。

Qwen 2.5 Max は、20 兆以上のトークンの事前学習データを使用し、徹底的に設計された事後学習スキームで訓練された大規模な MoE(専門家ミキシング)モデルです。

Qwen2と同じように、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

QwQ-32B-Preview は Qwen チームによって開発された実験的研究モデルであり、AI の推論能力の向上に焦点を当てています。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装が可能です。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を含むデコーダーのみのTransformerモデルとしてのアーキテクチャを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

개인 프로필

응용 수학 및 생성 AI 전문 지식을 바탕으로 Qwen 개발에 기여.

위로 돌아갑니다
OR