Jack Ma - 顶尖 AI 领袖与创新者 | 个人简介、重要里程碑与项目 - xix.ai
选项

发现高质量的人工智能工具

将全球领先的人工智能工具聚集在一起,以帮助提高工作效率

Search for Al tools…
首页
AI 名人
Jack Ma
Jack Ma

Jack Ma

阿里巴巴集团创始人
出生年份  1964
国籍  Chinese

重要里程碑

1999年创立阿里巴巴集团

建立了阿里巴巴,为其AI部门奠定了基础

2018 DAMO 研究院启动

启动了阿里巴巴的DAMO研究院进行AI研究

2023 千问公共发布

支持在阿里云下千问模型的公共发布

人工智能产品

Qwen3 是 Qwen 系列的最新一代大型语言模型,提供了一套全面的密集和专家混合(MoE)模型。

Qwen3 是 Qwen 系列的最新一代大型语言模型,提供全面的密集型和专家混合(MoE)模型套件。

像Qwen2一样,Qwen2.5语言模型支持高达128K个标记,并且可以生成多达8K个标记。它们还继续支持超过29种语言,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen3 是 Qwen 系列中的最新一代大型语言模型,提供一系列密集型和混合专家(MoE)模型。

Qwen1.5 是 Qwen2 的测试版,仍采用解码器-only 的 Transformer 架构模型,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种不同的模型大小,并增强了多语言和对话模型的能力,支持高达 32,768 个标记的上下文长度。所有模型均启用了角色扮演的系统提示,代码在 transformers 中原生支持实现。

Qwen1.5 是 Qwen2 的测试版,保持了解码器-only 变压器模型架构,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和聊天模型能力,支持 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,代码在 transformers 中支持本地实现。

Qwen1.5 是 Qwen2 的测试版,保留了解码器-only 变压器模型架构,带有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和对话模型的能力,支持长达 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,代码在 transformers 中支持原生实现。

Qwen-Max 是阿里巴巴推出的 API 模型。这是 0428 版本。

Qwen3 是 Qwen 系列中最新一代的大语言模型,提供了一系列密集型和专家混合(MoE)模型的综合套件。

Qwen3 是 Qwen 系列中最新一代的大语言模型,提供了一系列密集型和混合专家模型(MoE)。

与Qwen2一样,Qwen2.5语言模型支持高达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言的多语言功能,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen-Max 是阿里巴巴推出的 API 模型。这是 0428 版本。

Qwen1.5 是 Qwen2 的测试版本,仍采用解码器-only 的 Transformer 架构,包含 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型尺寸,并增强了多语言和对话模型能力,支持长达 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,并且代码在 transformers 中支持原生实现。

Qwen2 是 Qwen 大型语言模型的新系列。

Qwen2 是 Qwen 系列大语言模型的新一代。

Qwen 2.5 Max 是一个大规模的 MoE(专家混合)模型,经过超过 20 万亿个标记的预训练数据以及精心设计的后训练方案进行训练。

与Qwen2一样,Qwen2.5语言模型支持多达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言的多语言功能,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

与Qwen2一样,Qwen2.5语言模型支持高达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言的多语言处理,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

QwQ-32B-Preview 是由 Qwen 团队开发的实验研究模型,专注于提升 AI 推理能力。

与Qwen2一样,Qwen2.5语言模型支持多达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen1.5 是 Qwen2 的测试版本,保持了解码器-only 变换架构模型,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和聊天模型能力,支持 32,768 个标记的上下文长度。所有模型均已启用角色扮演系统提示,代码在 transformers 中支持本地实现。

与Qwen2一样,Qwen2.5语言模型支持多达128K个标记,并且可以生成高达8K个标记。它们还支持超过29种语言的多语言处理,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen1.5 是 Qwen2 的测试版,保持了解码器-only 的 Transformer 架构,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和对话模型的能力,支持长达 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,代码在 transformers 中支持本地实现。

个人简介

创立阿里巴巴集团,通过阿里云为Qwen等AI项目提供战略愿景

返回顶部
OR