Zhou Jingren - 頂尖 AI 領袖與創新者|個人簡介、里程碑與專案 - xix.ai
選項

發現高質量的人工智能工具

將全球領先的人工智能工具聚集在一起,以幫助提高工作效率

搜索al工具…
首頁
AI 名人
Zhou Jingren
Zhou Jingren

Zhou Jingren

阿里巴巴雲首席技術長
出生年份  未知
國籍  Chinese

重要里程碑

2018 加入阿里巴巴雲端

承擔雲端運算與AI發展的領導角色

2023 Qwen Beta 發布

監督了2023年4月Qwen(通義千問)的Beta版本發布

2024 Qwen2.5 發布

領導 Qwen2.5 的推出,提升多模態能力

AI 產品

Qwen3 是 Qwen 系列的最新一代大型語言模型,提供了一套全面的密集和專家混合(MoE)模型。

Qwen3 是 Qwen 系列的最新一代大型語言模型,提供全面的密集型與專家混合(MoE)模型套件。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還持續支援超過29種語言,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen3 是 Qwen 系列中的最新一代大型語言模型,提供一系列密集型和混合專家(MoE)模型。

Qwen1.5 是 Qwen2 的測試版本,仍然採用解碼器-only 的 Transformer 架構模型,具備 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種不同的模型大小,並增強了多語言和聊天模型的能力,支援高達 32,768 個標記的上下文長度。所有模型都啟用了角色扮演的系統提示,程式碼在 transformers 中原生支援實現。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 變壓器模型架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支援 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,程式碼在 transformers 中支援本地實現。

Qwen1.5 是 Qwen2 的測試版本,保留了解碼器-only 變壓器模型架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和對話模型的功能,支援長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,代碼在 transformers 中支援原生實現。

Qwen-Max 是阿里巴巴推出的 API 模型。這是 0428 版本。

Qwen3 是 Qwen 系列中最新一代的大語言模型,提供了一系列密集型和專家混合(MoE)模型的綜合套件。

Qwen3 是 Qwen 系列中最新一代的大語言模型,提供了一系列密集型和混合專家模型(MoE)。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言功能,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen-Max 是阿里巴巴推出的 API 模型。這是 0428 版本。

Qwen1.5 是 Qwen2 的測試版本,仍然採用解碼器-only 的 Transformer 架構,包含 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支持長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,並且代碼在 transformers 中支援原生實現。

Qwen2 是 Qwen 大型語言模型的新系列。

Qwen2 是 Qwen 系列大語言模型的新一代。

Qwen 2.5 Max 是一個大規模的 MoE(專家混合)模型,經過超過 20 兆個标记的預訓練數據以及精心設計的後訓練方案進行訓練。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還維持對超過29種語言的多語言支援,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言處理,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

QwQ-32B-Preview 是由 Qwen 團隊開發的實驗研究模型,專注於提升 AI 推理能力。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 變換架構模型,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支援 32,768 個標記的上下文長度。所有模型均已啟用角色扮演系統提示,程式碼在 transformers 中支援本地實現。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言處理,包括中文、英文、法語、西班牙語、葡萄牙語、德語、義大利語、俄語、日語、韓語、越南語、泰語、阿拉伯語等。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 的 Transformer 架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型的功能,支持長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,代碼在 transformers 中支援本地實現。

個人簡介

領導阿里巴巴雲的人工智慧計畫,負責監督Qwen模型系列的開發

回到頂部
OR