Zhou Jingren - 顶尖 AI 领袖与创新者 | 个人简介、重要里程碑与项目 - xix.ai
选项

发现高质量的人工智能工具

将全球领先的人工智能工具聚集在一起,以帮助提高工作效率

Search for Al tools…
首页
AI 名人
Zhou Jingren
Zhou Jingren

Zhou Jingren

阿里巴巴云首席技术官
出生年份  未知
国籍  Chinese

重要里程碑

2018年加入阿里云

担任云计算和AI开发领导角色

2023 Qwen Beta发布

监督了2023年4月Qwen(通义千问)的Beta版发布。

2024 Qwen2.5发布

领导了Qwen2.5的发布,增强了多模态能力

人工智能产品

Qwen3 是 Qwen 系列的最新一代大型语言模型,提供了一套全面的密集和专家混合(MoE)模型。

Qwen3 是 Qwen 系列的最新一代大型语言模型,提供全面的密集型和专家混合(MoE)模型套件。

像Qwen2一样,Qwen2.5语言模型支持高达128K个标记,并且可以生成多达8K个标记。它们还继续支持超过29种语言,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen3 是 Qwen 系列中的最新一代大型语言模型,提供一系列密集型和混合专家(MoE)模型。

Qwen1.5 是 Qwen2 的测试版,仍采用解码器-only 的 Transformer 架构模型,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种不同的模型大小,并增强了多语言和对话模型的能力,支持高达 32,768 个标记的上下文长度。所有模型均启用了角色扮演的系统提示,代码在 transformers 中原生支持实现。

Qwen1.5 是 Qwen2 的测试版,保持了解码器-only 变压器模型架构,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和聊天模型能力,支持 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,代码在 transformers 中支持本地实现。

Qwen1.5 是 Qwen2 的测试版,保留了解码器-only 变压器模型架构,带有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和对话模型的能力,支持长达 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,代码在 transformers 中支持原生实现。

Qwen-Max 是阿里巴巴推出的 API 模型。这是 0428 版本。

Qwen3 是 Qwen 系列中最新一代的大语言模型,提供了一系列密集型和专家混合(MoE)模型的综合套件。

Qwen3 是 Qwen 系列中最新一代的大语言模型,提供了一系列密集型和混合专家模型(MoE)。

与Qwen2一样,Qwen2.5语言模型支持高达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言的多语言功能,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen-Max 是阿里巴巴推出的 API 模型。这是 0428 版本。

Qwen1.5 是 Qwen2 的测试版本,仍采用解码器-only 的 Transformer 架构,包含 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型尺寸,并增强了多语言和对话模型能力,支持长达 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,并且代码在 transformers 中支持原生实现。

Qwen2 是 Qwen 大型语言模型的新系列。

Qwen2 是 Qwen 系列大语言模型的新一代。

Qwen 2.5 Max 是一个大规模的 MoE(专家混合)模型,经过超过 20 万亿个标记的预训练数据以及精心设计的后训练方案进行训练。

与Qwen2一样,Qwen2.5语言模型支持多达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言的多语言功能,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

与Qwen2一样,Qwen2.5语言模型支持高达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言的多语言处理,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

QwQ-32B-Preview 是由 Qwen 团队开发的实验研究模型,专注于提升 AI 推理能力。

与Qwen2一样,Qwen2.5语言模型支持多达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen1.5 是 Qwen2 的测试版本,保持了解码器-only 变换架构模型,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和聊天模型能力,支持 32,768 个标记的上下文长度。所有模型均已启用角色扮演系统提示,代码在 transformers 中支持本地实现。

与Qwen2一样,Qwen2.5语言模型支持多达128K个标记,并且可以生成高达8K个标记。它们还支持超过29种语言的多语言处理,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen1.5 是 Qwen2 的测试版,保持了解码器-only 的 Transformer 架构,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和对话模型的能力,支持长达 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,代码在 transformers 中支持本地实现。

个人简介

领导阿里巴巴云的人工智能项目,负责监督Qwen模型系列的开发

返回顶部
OR