Ana Rojo Echeburúa - トップAIリーダー&イノベーター|プロフィール、節目、プロジェクト - xix.ai
オプション

高品質のAIツールを発見します

世界をリードする人工知能ツールを集めて、作業効率を向上させるのに役立ちます

ALツールを検索します…
AI著名人
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

アリババクラウドAI・データスペシャリスト
生年  不明
国籍  Spanish

重要な節目

2015 応用数学博士号

データ駆動型AIソリューションに焦点を当てた博士号を取得

2020年にアリババクラウドに加入

AIモデルの開発とデプロイメントを開始

2024 Qwen-Agentフレームワーク

LLMアプリケーションのためのQwen-Agentフレームワークに貢献しました

AI製品

Qwen3は、Qwenシリーズの最新世代の大規模言語モデルであり、密なモデルと専門家混合(MoE)モデルの包括的なスイートを提供します。

Qwen3は、Qwenシリーズの最新世代の大規模言語モデルであり、密なモデルとエキスパート混合(MoE)モデルの包括的なスイートを提供します。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen3 は Qwen シリーズの最新世代の大型言語モデルであり、密集型および混合専門家(MoE)モデルの包括的なセットを提供しています。

Qwen1.5はQwen2のベータ版であり、依然としてSwiGLU活性化関数、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのTransformerモデルを維持しています。9つの異なるモデルサイズがあり、多言語およびチャットモデルの能力が向上しており、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルとしてのアーキテクチャを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、32,768トークンのコンテキスト長をサポートしています。すべてのモデルではキャラクター設定用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルのアーキテクチャを維持しています。9つのモデルサイズがあり、多言語およびチャットモデルの能力が向上し、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードは transformers でネイティブ実装されています。

Qwen-Max はアリババが提供する API モデルです。これは 0428 バージョンです。

Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、密集型および専門家ミキシチャーモデル(MoE)の包括的なセットを提供しています。

Qwen3 は Qwen シリーズの最新世代の大規模言語モデルであり、密集型および混合専門家モデル(MoE)の一式を提供しています。

Qwen2と同じように、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen-Max はアリババによって開発された API モデルです。これは 0428 バージョンです。

Qwen1.5はQwen2のベータ版であり、依然としてSwiGLUアクティベーション、RoPE、マルチヘッドアテンション機構を含むデコーダーのみのTransformerモデルとして構築されています。9つのモデルサイズがあり、多言語およびチャットモデル機能が強化されており、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装をサポートしています。

Qwen2 は Qwen 大規模言語モデルの新しいシリーズです。

Qwen2 は Qwen シリーズの大規模言語モデルの新シリーズです。

Qwen 2.5 Max は、20 兆以上のトークンの事前学習データを使用し、徹底的に設計された事後学習スキームで訓練された大規模な MoE(専門家ミキシング)モデルです。

Qwen2と同じように、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

QwQ-32B-Preview は Qwen チームによって開発された実験的研究モデルであり、AI の推論能力の向上に焦点を当てています。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装が可能です。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を含むデコーダーのみのTransformerモデルとしてのアーキテクチャを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

個人プロフィール

応用数学と生成AIの専門知識を活かし、Qwenの開発に貢献。

トップに戻ります
OR