Jack Ma - 최고의 AI 리더 및 혁신가 | 프로필, 주요 이정표 및 프로젝트 - xix.ai
옵션

품질 AI 도구를 발견하십시오

업무 효율성을 향상시키는 데 도움이되는 세계 최고의 인공 지능 도구를 모으십시오.

AL 도구 검색…
AI 유명인
Jack Ma
Jack Ma

Jack Ma

알리바바 그룹 창립자
출생 연도  1964
국적  Chinese

중요한 이정표

1999 알리바바 그룹 설립

알리바바를 설립하여 AI 부문의 기반을 마련함

2018 DAMO 아카데미 출범

알리바바의 AI 연구를 위해 DAMO 아카데미를 설립했습니다.

2023 Qwen 공개 출시

Alibaba Cloud에서 Qwen 모델의 공개 출시를 지원함

AI 제품

Qwen3 是 Qwen 系列的最新一代大型語言模型,提供了一套全面的密集和專家混合(MoE)模型。

Qwen3 是 Qwen 系列的最新一代大型語言模型,提供全面的密集型與專家混合(MoE)模型套件。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還持續支援超過29種語言,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen3 是 Qwen 系列中的最新一代大型語言模型,提供一系列密集型和混合專家(MoE)模型。

Qwen1.5 是 Qwen2 的測試版本,仍然採用解碼器-only 的 Transformer 架構模型,具備 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種不同的模型大小,並增強了多語言和聊天模型的能力,支援高達 32,768 個標記的上下文長度。所有模型都啟用了角色扮演的系統提示,程式碼在 transformers 中原生支援實現。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 變壓器模型架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支援 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,程式碼在 transformers 中支援本地實現。

Qwen1.5 是 Qwen2 的測試版本,保留了解碼器-only 變壓器模型架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和對話模型的功能,支援長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,代碼在 transformers 中支援原生實現。

Qwen-Max 是阿里巴巴推出的 API 模型。這是 0428 版本。

Qwen3 是 Qwen 系列中最新一代的大語言模型,提供了一系列密集型和專家混合(MoE)模型的綜合套件。

Qwen3 是 Qwen 系列中最新一代的大語言模型,提供了一系列密集型和混合專家模型(MoE)。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言功能,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen-Max 是阿里巴巴推出的 API 模型。這是 0428 版本。

Qwen1.5 是 Qwen2 的測試版本,仍然採用解碼器-only 的 Transformer 架構,包含 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支持長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,並且代碼在 transformers 中支援原生實現。

Qwen2 是 Qwen 大型語言模型的新系列。

Qwen2 是 Qwen 系列大語言模型的新一代。

Qwen 2.5 Max 是一個大規模的 MoE(專家混合)模型,經過超過 20 兆個标记的預訓練數據以及精心設計的後訓練方案進行訓練。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還維持對超過29種語言的多語言支援,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言處理,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

QwQ-32B-Preview 是由 Qwen 團隊開發的實驗研究模型,專注於提升 AI 推理能力。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 變換架構模型,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支援 32,768 個標記的上下文長度。所有模型均已啟用角色扮演系統提示,程式碼在 transformers 中支援本地實現。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言處理,包括中文、英文、法語、西班牙語、葡萄牙語、德語、義大利語、俄語、日語、韓語、越南語、泰語、阿拉伯語等。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 的 Transformer 架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型的功能,支持長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,代碼在 transformers 中支援本地實現。

개인 프로필

알리바바 그룹을 설립하고, 알리바바 클라우드를 통해 Qwen과 같은 AI 이니셔티브에 대한 전략적 비전을 제공함.

위로 돌아갑니다
OR