Zhou Jingren - Leaders et innovateurs IA | Profils, étapes clés & projets - xix.ai
option

Découvrez des outils AI de qualité

Rassemblez les principaux outils d'intelligence artificielle du monde pour aider à améliorer l'efficacité du travail

Rechercher des outils AL…
Maison
Célébrité de l’IA
Zhou Jingren
Zhou Jingren

Zhou Jingren

Directeur de la technologie, Alibaba Cloud
Année de naissance  inconnu
Nationalité  Chinese

Étape importante

2018 Rejoint Alibaba Cloud

A pris des rôles de leadership dans le cloud computing et le développement de l'IA

Lancement bêta de Qwen 2023

Supervisé la sortie bêta de Qwen (Tongyi Qianwen) en avril 2023

Lancement de Qwen2.5 2024

Dirigé le lancement de Qwen2.5, améliorant les capacités multimodales

Produit IA

Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).

Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют мультиязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen3 - это последнее поколение больших языковых моделей в серии Qwen, предлагающая комплексную совокупность плотных и смешанных экспертов (MoE) моделей.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру decoder-only transformer-модели с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Она предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32 768 токенов. Для всех моделей включена система подсказок для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру декодерного трансформатора с активацией SwiGLU, RoPE и механизмами внимания с множественными головами. Она предлагает девять размеров моделей и имеет улучшенные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру декодер-только с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Он предлагает девять размеров моделей и имеет улучшенные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen-Max — это модель API, созданная Alibaba. Это версия 0428

Qwen3 - это последнее поколение больших языковых моделей в серии Qwen, предлагая комплексный набор плотных и смешанных экспертов (MoE) моделей.

Qwen3 является последним поколением больших языковых моделей серии Qwen, предлагая комплекс моделей как плотных, так и смешанных экспертов (MoE).

Как и Qwen2, языковые модели Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают мультиязычный режим для более чем 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen-Max — это API-модель, созданная Alibaba. Это версия 0428.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру декодера-только с активацией SwiGLU, RoPE и механизмом многозадачного внимания. Она предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих длину контекста до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen2 — это новая серия крупномасштабных языковых моделей Qwen.

Qwen2 — это новая серия больших языковых моделей Qwen.

Qwen 2.5 Max — это крупномасштабная модель MoE (Mixture-of-Experts), обученная с использованием более 20 триллионов токенов предварительного обучения и тщательно спроектированной схемы постобучения.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают более 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают мультимедийное обеспечение более чем на 29 языках, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и многие другие.

QwQ-32B-Preview - это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на развитии способностей логического вывода ИИ.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают многоязычие более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и многие другие.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру только декодера с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Она предлагает девять размеров моделей и улучшенные возможности многоязычных и чат-моделей, поддерживающих длину контекста до 32 768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, а код поддерживает нативную реализацию в transformers.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют многоязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру только декодера с активацией SwiGLU, RoPE и механизмом внимания с множественными головами. Он предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32 768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, а код поддерживает нативную реализацию в transformers.

Profil personnel

Dirige les initiatives d'IA d'Alibaba Cloud, supervisant le développement de la série de modèles Qwen.

Retour en haut
OR