Ana Rojo Echeburúa - 顶尖 AI 领袖与创新者 | 个人简介、重要里程碑与项目 - xix.ai
选项

发现高质量的人工智能工具

将全球领先的人工智能工具聚集在一起,以帮助提高工作效率

Search for Al tools…
首页
AI 名人
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

阿里巴巴云AI与数据专家
出生年份  未知
国籍  Spanish

重要里程碑

2015年应用数学博士

获得博士学位,专注于数据驱动的AI解决方案

2020年加入阿里巴巴云

开始从事AI模型开发与部署工作

2024 Qwen-Agent框架

为LLM应用贡献了Qwen-Agent框架

人工智能产品

Qwen3 是 Qwen 系列的最新一代大型语言模型,提供了一套全面的密集和专家混合(MoE)模型。

Qwen3 是 Qwen 系列的最新一代大型语言模型,提供全面的密集型和专家混合(MoE)模型套件。

像Qwen2一样,Qwen2.5语言模型支持高达128K个标记,并且可以生成多达8K个标记。它们还继续支持超过29种语言,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen3 是 Qwen 系列中的最新一代大型语言模型,提供一系列密集型和混合专家(MoE)模型。

Qwen1.5 是 Qwen2 的测试版,仍采用解码器-only 的 Transformer 架构模型,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种不同的模型大小,并增强了多语言和对话模型的能力,支持高达 32,768 个标记的上下文长度。所有模型均启用了角色扮演的系统提示,代码在 transformers 中原生支持实现。

Qwen1.5 是 Qwen2 的测试版,保持了解码器-only 变压器模型架构,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和聊天模型能力,支持 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,代码在 transformers 中支持本地实现。

Qwen1.5 是 Qwen2 的测试版,保留了解码器-only 变压器模型架构,带有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和对话模型的能力,支持长达 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,代码在 transformers 中支持原生实现。

Qwen-Max 是阿里巴巴推出的 API 模型。这是 0428 版本。

Qwen3 是 Qwen 系列中最新一代的大语言模型,提供了一系列密集型和专家混合(MoE)模型的综合套件。

Qwen3 是 Qwen 系列中最新一代的大语言模型,提供了一系列密集型和混合专家模型(MoE)。

与Qwen2一样,Qwen2.5语言模型支持高达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言的多语言功能,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen-Max 是阿里巴巴推出的 API 模型。这是 0428 版本。

Qwen1.5 是 Qwen2 的测试版本,仍采用解码器-only 的 Transformer 架构,包含 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型尺寸,并增强了多语言和对话模型能力,支持长达 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,并且代码在 transformers 中支持原生实现。

Qwen2 是 Qwen 大型语言模型的新系列。

Qwen2 是 Qwen 系列大语言模型的新一代。

Qwen 2.5 Max 是一个大规模的 MoE(专家混合)模型,经过超过 20 万亿个标记的预训练数据以及精心设计的后训练方案进行训练。

与Qwen2一样,Qwen2.5语言模型支持多达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言的多语言功能,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

与Qwen2一样,Qwen2.5语言模型支持高达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言的多语言处理,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

QwQ-32B-Preview 是由 Qwen 团队开发的实验研究模型,专注于提升 AI 推理能力。

与Qwen2一样,Qwen2.5语言模型支持多达128K个标记,并且可以生成多达8K个标记。它们还支持超过29种语言,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen1.5 是 Qwen2 的测试版本,保持了解码器-only 变换架构模型,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和聊天模型能力,支持 32,768 个标记的上下文长度。所有模型均已启用角色扮演系统提示,代码在 transformers 中支持本地实现。

与Qwen2一样,Qwen2.5语言模型支持多达128K个标记,并且可以生成高达8K个标记。它们还支持超过29种语言的多语言处理,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

Qwen1.5 是 Qwen2 的测试版,保持了解码器-only 的 Transformer 架构,具有 SwiGLU 激活函数、RoPE 和多头注意力机制。它提供了九种模型大小,并增强了多语言和对话模型的能力,支持长达 32,768 个标记的上下文长度。所有模型均已启用角色扮演的系统提示,代码在 transformers 中支持本地实现。

个人简介

在应用数学和生成式AI领域具有专长,助力Qwen的开发。

返回顶部
OR