Jack Ma - Top AI Leaders & Innovators | Profiles, Milestones & Projects - xix.ai
option

Discover quality AI tools

Bring together the world’s leading artificial intelligence tools to help improve work efficiency

Search for Al tools…
Home
Ai celebrity
Jack Ma
Jack Ma

Jack Ma

Founder, Alibaba Group
Year of Birth  1964
Nationality  Chinese

Important milestone

1999 Founded Alibaba Group

Established Alibaba, laying the foundation for its AI division

2018 DAMO Academy Launch

Initiated Alibaba's DAMO Academy for AI research

2023 Qwen Public Release

Supported the public release of Qwen models under Alibaba Cloud

AI product

Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant une suite complète de modèles denses et de modèles à mélange d'experts (MoE).

Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant une suite complète de modèles denses et de modèles à mélange d'experts (MoE).

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également une prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen3 est la dernière génération de modèles de langue de grande taille dans la série Qwen, offrant un ensemble complet de modèles denses et experts mixtes (MoE).

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation de type decoder-only avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et possède des capacités améliorées en matière de multilinguisme et de modèles de conversation, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles disposent de prompts système pour le jeu de rôles, et le code supporte une implémentation native dans transformers.

Qwen1.5 est la version bêta de Qwen2, conservant une architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et des mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et possède des capacités améliorées pour les modèles multilingues et de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles incluent des invites système pour le jeu de rôle, et le code prend en charge une implémentation native dans transformers.

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Il offre neuf tailles de modèles et possède des capacités améliorées en matière de langues multiples et de modèles de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles ont activé les invites de système pour le jeu de rôles, et le code prend en charge une implémentation native dans transformers.

Qwen-Max est un modèle API produit par Alibaba. Il s'agit de la version 0428

Qwen3 est la génération la plus récente de modèles de langue grande série Qwen, offrant un ensemble complet de modèles denses et d'experts mixtes (MoE).

Qwen3 est la génération la plus récente de modèles de langue grande série Qwen, offrant un ensemble complet de modèles denses et de modèles mixtes d'experts (MoE).

Comme Qwen2, les modèles linguistiques Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils soutiennent également la prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen-Max est un modèle API produit par Alibaba. Il s'agit de la version 0428.

Qwen1.5 est la version bêta de Qwen2, conservant une architecture de modèle de transformation à décoder-seul avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle offre neuf tailles de modèles et possède des capacités améliorées pour les modèles multilingues et de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles ont activé les invites système pour les rôles, et le code supporte une implémentation native dans transformers.

Qwen2 est la nouvelle série des modèles de langue de grande taille Qwen.

Qwen2 est la nouvelle série des modèles de langue grande de Qwen.

Qwen 2.5 Max est un modèle MoE (Mixture-of-Experts) de grande taille entraîné avec plus de 20 billions de tokens de données pré-entraînement et un schéma de post-entraînement minutieusement conçu.

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également un support multilingue pour plus de 29 langues, dont le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils soutiennent également la polyglottisme pour plus de 29 langues, dont le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

QwQ-32B-Preview est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA.

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également un support multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et améliore les capacités multilingues et de chat, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles incluent des invites système pour le jeu de rôle, et le code prend en charge une implémentation native dans transformers.

Comme Qwen2, les modèles linguistiques Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils soutiennent également plusieurs langues pour plus de 29 langues, notamment le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation à décoder seul avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Il propose neuf tailles de modèles et possède des capacités améliorées en langues multiples et en modèles de conversation, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles incluent des invites de système pour le jeu de rôle, et le code prend en charge une implémentation native dans transformers.

Personal Profile

Founded Alibaba Group, providing strategic vision for AI initiatives like Qwen through Alibaba Cloud

Back to Top
OR