Junyang Lin - 최고의 AI 리더 및 혁신가 | 프로필, 주요 이정표 및 프로젝트 - xix.ai
옵션

품질 AI 도구를 발견하십시오

업무 효율성을 향상시키는 데 도움이되는 세계 최고의 인공 지능 도구를 모으십시오.

AL 도구 검색…
AI 유명인
Junyang Lin
Junyang Lin

Junyang Lin

알리바바 클라우드 연구원
출생 연도  1985
국적  Chinese

중요한 이정표

2018 알리바바 AI 가입

알리바바 클라우드에서 AI 연구 시작

2023 Qwen 1 출시

Qwen 1 모델 개발에 기여함

2025 Qwen 3 출시

Qwen 3 개발을 주도, 선도적인 LLM

AI 제품

Qwen3は、Qwenシリーズの最新世代の大規模言語モデルであり、密なモデルと専門家混合(MoE)モデルの包括的なスイートを提供します。

Qwen3は、Qwenシリーズの最新世代の大規模言語モデルであり、密なモデルとエキスパート混合(MoE)モデルの包括的なスイートを提供します。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen3 は Qwen シリーズの最新世代の大型言語モデルであり、密集型および混合専門家(MoE)モデルの包括的なセットを提供しています。

Qwen1.5はQwen2のベータ版であり、依然としてSwiGLU活性化関数、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのTransformerモデルを維持しています。9つの異なるモデルサイズがあり、多言語およびチャットモデルの能力が向上しており、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルとしてのアーキテクチャを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、32,768トークンのコンテキスト長をサポートしています。すべてのモデルではキャラクター設定用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルのアーキテクチャを維持しています。9つのモデルサイズがあり、多言語およびチャットモデルの能力が向上し、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードは transformers でネイティブ実装されています。

Qwen-Max はアリババが提供する API モデルです。これは 0428 バージョンです。

Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、密集型および専門家ミキシチャーモデル(MoE)の包括的なセットを提供しています。

Qwen3 は Qwen シリーズの最新世代の大規模言語モデルであり、密集型および混合専門家モデル(MoE)の一式を提供しています。

Qwen2と同じように、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen-Max はアリババによって開発された API モデルです。これは 0428 バージョンです。

Qwen1.5はQwen2のベータ版であり、依然としてSwiGLUアクティベーション、RoPE、マルチヘッドアテンション機構を含むデコーダーのみのTransformerモデルとして構築されています。9つのモデルサイズがあり、多言語およびチャットモデル機能が強化されており、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装をサポートしています。

Qwen2 は Qwen 大規模言語モデルの新しいシリーズです。

Qwen2 は Qwen シリーズの大規模言語モデルの新シリーズです。

Qwen 2.5 Max は、20 兆以上のトークンの事前学習データを使用し、徹底的に設計された事後学習スキームで訓練された大規模な MoE(専門家ミキシング)モデルです。

Qwen2と同じように、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

QwQ-32B-Preview は Qwen チームによって開発された実験的研究モデルであり、AI の推論能力の向上に焦点を当てています。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を持つデコーダーのみのトランスフォーマーモデルを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装が可能です。

Qwen2と同様に、Qwen2.5言語モデルは最大128Kトークンをサポートし、最大8Kトークンを生成できます。また、中国語、英語、フランス語、スペイン語、ポルトガル語、ドイツ語、イタリア語、ロシア語、日本語、韓国語、ベトナム語、タイ語、アラビア語など、29以上の言語に対応しています。

Qwen1.5 は Qwen2 のベータ版であり、SwiGLU アクティベーション、RoPE、マルチヘッドアテンション機構を含むデコーダーのみのTransformerモデルとしてのアーキテクチャを維持しています。9つのモデルサイズがあり、マルチリンガルおよびチャットモデルの能力が向上し、最大32,768トークンのコンテキスト長をサポートしています。すべてのモデルでロールプレイ用のシステムプロンプトが有効になっており、コードはtransformersでネイティブ実装されています。

개인 프로필

Qwen 모델 연구를 이끌며 멀티모달 및 오픈소스 AI를 발전시킴.

위로 돌아갑니다
OR