Zhou Jingren - Principales líderes e innovadores de IA | Perfiles, hitos y proyectos - xix.ai
opción

Descubre herramientas de IA de calidad

Reúna las principales herramientas de inteligencia artificial del mundo para ayudar a mejorar la eficiencia laboral

Buscar herramientas de Al…
Hogar
Celebridad de IA
Zhou Jingren
Zhou Jingren

Zhou Jingren

Director de Tecnología, Alibaba Cloud
Año de nacimiento  desconocido
Nacionalidad  Chinese

Hito importante

2018 Se unió a Alibaba Cloud

Asumió roles de liderazgo en computación en la nube y desarrollo de IA

Lanzamiento Beta de Qwen 2023

Supervisé el lanzamiento beta de Qwen (Tongyi Qianwen) en abril de 2023

Lanzamiento de Qwen2.5 2024

Dirigió el lanzamiento de Qwen2.5, mejorando las capacidades multimodales

Producto de IA

Qwen3は、Qwenシリーズの最新世代の大規模言語モデルであり、密なモデルと専門家混合(MoE)モデルの包括的なスイートを提供します。

Qwen3は、Qwenシリーズの最新世代の大規模言語モデルであり、密なモデルとエキスパート混合(MoE)モデルの包括的なスイートを提供します。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen3 は Qwen シリーズの最新世代の大型言語モデルであり、密集型および混合専門家(MoE)モデルの包括的なセットを提供しています。

Qwen1.5はQwen2のベータ版であり、依然としてSwiGLU活性化関数、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのTransformerモデルを維持しています。9つの異なるモデルサイズがあり、多言語およびチャットモデルの能力が向上しており、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルとしてのアーキテクチャを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、32,768トークンのコンテキスト長をサポートしています。すべてのモデルではキャラクター設定用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルのアーキテクチャを維持しています。9つのモデルサイズがあり、多言語およびチャットモデルの能力が向上し、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードは transformers でネイティブ実装されています。

Qwen-Max はアリババが提供する API モデルです。これは 0428 バージョンです。

Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、密集型および専門家ミキシチャーモデル(MoE)の包括的なセットを提供しています。

Qwen3 は Qwen シリーズの最新世代の大規模言語モデルであり、密集型および混合専門家モデル(MoE)の一式を提供しています。

Qwen2と同じように、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen-Max はアリババによって開発された API モデルです。これは 0428 バージョンです。

Qwen1.5はQwen2のベータ版であり、依然としてSwiGLUアクティベーション、RoPE、マルチヘッドアテンション機構を含むデコーダーのみのTransformerモデルとして構築されています。9つのモデルサイズがあり、多言語およびチャットモデル機能が強化されており、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装をサポートしています。

Qwen2 は Qwen 大規模言語モデルの新しいシリーズです。

Qwen2 は Qwen シリーズの大規模言語モデルの新シリーズです。

Qwen 2.5 Max は、20 兆以上のトークンの事前学習データを使用し、徹底的に設計された事後学習スキームで訓練された大規模な MoE(専門家ミキシング)モデルです。

Qwen2と同じように、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

QwQ-32B-Preview は Qwen チームによって開発された実験的研究モデルであり、AI の推論能力の向上に焦点を当てています。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装が可能です。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を含むデコーダーのみのTransformerモデルとしてのアーキテクチャを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

Perfil personal

Lidera las iniciativas de IA de Alibaba Cloud, supervisando el desarrollo de la serie de modelos Qwen.

Volver arriba
OR