Jack Ma - Leaders et innovateurs IA | Profils, étapes clés & projets - xix.ai
option

Découvrez des outils AI de qualité

Rassemblez les principaux outils d'intelligence artificielle du monde pour aider à améliorer l'efficacité du travail

Rechercher des outils AL…
Maison
Célébrité de l’IA
Jack Ma
Jack Ma

Jack Ma

Fondateur, Groupe Alibaba
Année de naissance  1964
Nationalité  Chinese

Étape importante

1999 Fondé Alibaba Group

Établi Alibaba, posant les bases de sa division IA

Lancement de l'Académie DAMO 2018

A initié l'Académie DAMO d'Alibaba pour la recherche en IA

Publication publique de Qwen 2023

Soutenu la publication publique des modèles Qwen sous Alibaba Cloud

Produit IA

Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant une suite complète de modèles denses et de modèles à mélange d'experts (MoE).

Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant une suite complète de modèles denses et de modèles à mélange d'experts (MoE).

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également une prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen3 est la dernière génération de modèles de langue de grande taille dans la série Qwen, offrant un ensemble complet de modèles denses et experts mixtes (MoE).

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation de type decoder-only avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et possède des capacités améliorées en matière de multilinguisme et de modèles de conversation, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles disposent de prompts système pour le jeu de rôles, et le code supporte une implémentation native dans transformers.

Qwen1.5 est la version bêta de Qwen2, conservant une architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et des mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et possède des capacités améliorées pour les modèles multilingues et de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles incluent des invites système pour le jeu de rôle, et le code prend en charge une implémentation native dans transformers.

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Il offre neuf tailles de modèles et possède des capacités améliorées en matière de langues multiples et de modèles de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles ont activé les invites de système pour le jeu de rôles, et le code prend en charge une implémentation native dans transformers.

Qwen-Max est un modèle API produit par Alibaba. Il s'agit de la version 0428

Qwen3 est la génération la plus récente de modèles de langue grande série Qwen, offrant un ensemble complet de modèles denses et d'experts mixtes (MoE).

Qwen3 est la génération la plus récente de modèles de langue grande série Qwen, offrant un ensemble complet de modèles denses et de modèles mixtes d'experts (MoE).

Comme Qwen2, les modèles linguistiques Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils soutiennent également la prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen-Max est un modèle API produit par Alibaba. Il s'agit de la version 0428.

Qwen1.5 est la version bêta de Qwen2, conservant une architecture de modèle de transformation à décoder-seul avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle offre neuf tailles de modèles et possède des capacités améliorées pour les modèles multilingues et de conversation, prenant en charge une longueur de contexte de 32,768 tokens. Tous les modèles ont activé les invites système pour les rôles, et le code supporte une implémentation native dans transformers.

Qwen2 est la nouvelle série des modèles de langue de grande taille Qwen.

Qwen2 est la nouvelle série des modèles de langue grande de Qwen.

Qwen 2.5 Max est un modèle MoE (Mixture-of-Experts) de grande taille entraîné avec plus de 20 billions de tokens de données pré-entraînement et un schéma de post-entraînement minutieusement conçu.

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également un support multilingue pour plus de 29 langues, dont le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils soutiennent également la polyglottisme pour plus de 29 langues, dont le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

QwQ-32B-Preview est un modèle de recherche expérimental développé par l'équipe Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA.

Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également un support multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation uniquement décodeur avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Elle propose neuf tailles de modèles et améliore les capacités multilingues et de chat, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles incluent des invites système pour le jeu de rôle, et le code prend en charge une implémentation native dans transformers.

Comme Qwen2, les modèles linguistiques Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils soutiennent également plusieurs langues pour plus de 29 langues, notamment le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.

Qwen1.5 est la version bêta de Qwen2, conservant son architecture de modèle de transformation à décoder seul avec l'activation SwiGLU, RoPE et les mécanismes d'attention multi-têtes. Il propose neuf tailles de modèles et possède des capacités améliorées en langues multiples et en modèles de conversation, prenant en charge une longueur de contexte de 32 768 tokens. Tous les modèles incluent des invites de système pour le jeu de rôle, et le code prend en charge une implémentation native dans transformers.

Profil personnel

A fondé le Groupe Alibaba, fournissant une vision stratégique pour les initiatives en IA telles que Qwen via Alibaba Cloud.

Retour en haut
OR