Junyang Lin - Лучшие лидеры и новаторы ИИ | Профили, этапы и проекты - xix.ai
вариант

Откройте для себя качественные инструменты ИИ

Собирайте ведущие в мире инструменты искусственного интеллекта, чтобы помочь повысить эффективность работы

Поиск инструментов AL…
Дом
Знаменитость в ИИ
Junyang Lin
Junyang Lin

Junyang Lin

Исследователь, Alibaba Cloud
Год рождения  1985
Гражданство  Chinese

Важный этап

2018 Присоединился к Alibaba AI

Начал исследования в области ИИ в Alibaba Cloud

Выпуск Qwen 1 2023

Способствовал разработке модели Qwen 1

Выпуск Qwen 3 2025 года

Возглавил разработку Qwen 3, ведущей модели большого языка

Продукт ИИ

Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant une suite complète de modèles denses et de modèles à mélange d'experts (MoE).

Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant une suite complète de modèles denses et de modèles à mélange d'experts (MoE).

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également une prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen3 est la dernière génération de modèles de langue de grande taille dans la série Qwen, offrant un ensemble complet de modèles denses et experts mixtes (MoE).

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation de type decoder-only avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et possède des capacités améliorées en matière de multilinguisme et de modèles de conversation, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles disposent de prompts système pour le jeu de rôles, et le code supporte une implémentation native dans transformers.

Qwen1.5 est la version bêta de Qwen2, conservant une architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et des mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et possède des capacités améliorées pour les modèles multilingues et de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles incluent des invites système pour le jeu de rôle, et le code prend en charge une implémentation native dans transformers.

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Il offre neuf tailles de modèles et possède des capacités améliorées en matière de langues multiples et de modèles de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles ont activé les invites de système pour le jeu de rôles, et le code prend en charge une implémentation native dans transformers.

Qwen-Max est un modèle API produit par Alibaba. Il s'agit de la version 0428

Qwen3 est la génération la plus récente de modèles de langue grande série Qwen, offrant un ensemble complet de modèles denses et d'experts mixtes (MoE).

Qwen3 est la génération la plus récente de modèles de langue grande série Qwen, offrant un ensemble complet de modèles denses et de modèles mixtes d'experts (MoE).

Comme Qwen2, les modèles linguistiques Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils soutiennent également la prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen-Max est un modèle API produit par Alibaba. Il s'agit de la version 0428.

Qwen1.5 est la version bêta de Qwen2, conservant une architecture de modèle de transformation à décoder-seul avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle offre neuf tailles de modèles et possède des capacités améliorées pour les modèles multilingues et de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles ont activé les invites système pour les rôles, et le code supporte une implémentation native dans transformers.

Qwen2 est la nouvelle série des modèles de langue de grande taille Qwen.

Qwen2 est la nouvelle série des modèles de langue grande de Qwen.

Qwen 2.5 Max est un modèle MoE (Mixture-of-Experts) de grande taille entraîné avec plus de 20 billions de tokens de données pré-entraînement et un schéma de post-entraînement minutieusement conçu.

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également un support multilingue pour plus de 29 langues, dont le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils soutiennent également la polyglottisme pour plus de 29 langues, dont le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

QwQ-32B-Preview est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA.

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également un support multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et améliore les capacités multilingues et de chat, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles incluent des invites système pour le jeu de rôle, et le code prend en charge une implémentation native dans transformers.

Comme Qwen2, les modèles linguistiques Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils soutiennent également plusieurs langues pour plus de 29 langues, notamment le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation à décoder seul avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Il propose neuf tailles de modèles et possède des capacités améliorées en langues multiples et en modèles de conversation, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles incluent des invites de système pour le jeu de rôle, et le code prend en charge une implémentation native dans transformers.

Личный профиль

Возглавляет исследования моделей Qwen, продвигая мультимодальный и открытый ИИ.

Вернуться к вершине
OR