Ana Rojo Echeburúa - 頂尖 AI 領袖與創新者|個人簡介、里程碑與專案 - xix.ai
選項

發現高質量的人工智能工具

將全球領先的人工智能工具聚集在一起,以幫助提高工作效率

搜索al工具…
首頁
AI 名人
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

阿里巴巴雲AI與數據專家
出生年份  未知
國籍  Spanish

重要里程碑

2015年應用數學博士

獲得博士學位,專注於數據驅動的AI解決方案

2020 加入阿里巴巴雲端

開始從事AI模型開發與部署

2024 Qwen-Agent 框架

為LLM應用貢獻了Qwen-Agent框架

AI 產品

Qwen3 是 Qwen 系列的最新一代大型語言模型,提供了一套全面的密集和專家混合(MoE)模型。

Qwen3 是 Qwen 系列的最新一代大型語言模型,提供全面的密集型與專家混合(MoE)模型套件。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還持續支援超過29種語言,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen3 是 Qwen 系列中的最新一代大型語言模型,提供一系列密集型和混合專家(MoE)模型。

Qwen1.5 是 Qwen2 的測試版本,仍然採用解碼器-only 的 Transformer 架構模型,具備 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種不同的模型大小,並增強了多語言和聊天模型的能力,支援高達 32,768 個標記的上下文長度。所有模型都啟用了角色扮演的系統提示,程式碼在 transformers 中原生支援實現。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 變壓器模型架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支援 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,程式碼在 transformers 中支援本地實現。

Qwen1.5 是 Qwen2 的測試版本,保留了解碼器-only 變壓器模型架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和對話模型的功能,支援長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,代碼在 transformers 中支援原生實現。

Qwen-Max 是阿里巴巴推出的 API 模型。這是 0428 版本。

Qwen3 是 Qwen 系列中最新一代的大語言模型,提供了一系列密集型和專家混合(MoE)模型的綜合套件。

Qwen3 是 Qwen 系列中最新一代的大語言模型,提供了一系列密集型和混合專家模型(MoE)。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言功能,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen-Max 是阿里巴巴推出的 API 模型。這是 0428 版本。

Qwen1.5 是 Qwen2 的測試版本,仍然採用解碼器-only 的 Transformer 架構,包含 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支持長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,並且代碼在 transformers 中支援原生實現。

Qwen2 是 Qwen 大型語言模型的新系列。

Qwen2 是 Qwen 系列大語言模型的新一代。

Qwen 2.5 Max 是一個大規模的 MoE(專家混合)模型,經過超過 20 兆個标记的預訓練數據以及精心設計的後訓練方案進行訓練。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還維持對超過29種語言的多語言支援,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言處理,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

QwQ-32B-Preview 是由 Qwen 團隊開發的實驗研究模型,專注於提升 AI 推理能力。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 變換架構模型,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支援 32,768 個標記的上下文長度。所有模型均已啟用角色扮演系統提示,程式碼在 transformers 中支援本地實現。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言處理,包括中文、英文、法語、西班牙語、葡萄牙語、德語、義大利語、俄語、日語、韓語、越南語、泰語、阿拉伯語等。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 的 Transformer 架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型的功能,支持長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,代碼在 transformers 中支援本地實現。

個人簡介

在應用數學和生成式AI領域具專長,協助Qwen的開發。

回到頂部
OR