Jack Ma - Principales líderes e innovadores de IA | Perfiles, hitos y proyectos - xix.ai
opción

Descubre herramientas de IA de calidad

Reúna las principales herramientas de inteligencia artificial del mundo para ayudar a mejorar la eficiencia laboral

Buscar herramientas de Al…
Hogar
Celebridad de IA
Jack Ma
Jack Ma

Jack Ma

Fundador, Alibaba Group
Año de nacimiento  1964
Nacionalidad  Chinese

Hito importante

1999 Fundó Alibaba Group

Estableció Alibaba, sentando las bases para su división de IA

Lanzamiento de la Academia DAMO 2018

Inició la Academia DAMO de Alibaba para la investigación en IA

Lanzamiento Público de Qwen 2023

Apoyó el lanzamiento público de los modelos Qwen bajo Alibaba Cloud

Producto de IA

Qwen3 是 Qwen 系列的最新一代大型語言模型,提供了一套全面的密集和專家混合(MoE)模型。

Qwen3 是 Qwen 系列的最新一代大型語言模型,提供全面的密集型與專家混合(MoE)模型套件。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還持續支援超過29種語言,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen3 是 Qwen 系列中的最新一代大型語言模型,提供一系列密集型和混合專家(MoE)模型。

Qwen1.5 是 Qwen2 的測試版本,仍然採用解碼器-only 的 Transformer 架構模型,具備 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種不同的模型大小,並增強了多語言和聊天模型的能力,支援高達 32,768 個標記的上下文長度。所有模型都啟用了角色扮演的系統提示,程式碼在 transformers 中原生支援實現。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 變壓器模型架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支援 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,程式碼在 transformers 中支援本地實現。

Qwen1.5 是 Qwen2 的測試版本,保留了解碼器-only 變壓器模型架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和對話模型的功能,支援長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,代碼在 transformers 中支援原生實現。

Qwen-Max 是阿里巴巴推出的 API 模型。這是 0428 版本。

Qwen3 是 Qwen 系列中最新一代的大語言模型,提供了一系列密集型和專家混合(MoE)模型的綜合套件。

Qwen3 是 Qwen 系列中最新一代的大語言模型,提供了一系列密集型和混合專家模型(MoE)。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言功能,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen-Max 是阿里巴巴推出的 API 模型。這是 0428 版本。

Qwen1.5 是 Qwen2 的測試版本,仍然採用解碼器-only 的 Transformer 架構,包含 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支持長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,並且代碼在 transformers 中支援原生實現。

Qwen2 是 Qwen 大型語言模型的新系列。

Qwen2 是 Qwen 系列大語言模型的新一代。

Qwen 2.5 Max 是一個大規模的 MoE(專家混合)模型,經過超過 20 兆個标记的預訓練數據以及精心設計的後訓練方案進行訓練。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還維持對超過29種語言的多語言支援,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言處理,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

QwQ-32B-Preview 是由 Qwen 團隊開發的實驗研究模型,專注於提升 AI 推理能力。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 變換架構模型,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支援 32,768 個標記的上下文長度。所有模型均已啟用角色扮演系統提示,程式碼在 transformers 中支援本地實現。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言處理,包括中文、英文、法語、西班牙語、葡萄牙語、德語、義大利語、俄語、日語、韓語、越南語、泰語、阿拉伯語等。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 的 Transformer 架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型的功能,支持長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,代碼在 transformers 中支援本地實現。

Perfil personal

Fundó Alibaba Group, proporcionando una visión estratégica para iniciativas de IA como Qwen a través de Alibaba Cloud.

Volver arriba
OR