Jack Ma - Principais Líderes e Inovadores de IA | Perfis, Marcos e Projetos - xix.ai
opção

Descubra ferramentas de qualidade de qualidade

Reunir as principais ferramentas de inteligência artificial do mundo para ajudar a melhorar a eficiência do trabalho

Procure por ferramentas AL…
Lar
Celebridade de IA
Jack Ma
Jack Ma

Jack Ma

Fundador, Alibaba Group
Ano de nascimento  1964
Nacionalidade  Chinese

Marco importante

1999 Fundou o Grupo Alibaba

Estabeleceu a Alibaba, lançando as bases para sua divisão de IA

Lançamento da DAMO Academy 2018

Iniciou a DAMO Academy da Alibaba para pesquisa em AI

Lançamento Público do Qwen 2023

Apoiou o lançamento público dos modelos Qwen sob a Alibaba Cloud

Produto de IA

Qwen3 ist die neueste Generation von großen Sprachmodellen der Qwen-Serie und bietet eine umfassende Sammlung von dichten und Mixture-of-Experts (MoE) Modellen.

Qwen3 ist die neueste Generation von Large Language Models in der Qwen-Serie und bietet eine umfassende Suite aus dichten und Mixture-of-Experts (MoE)-Modellen.

Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

Qwen3 ist die neueste Generation großer Sprachmodelle der Qwen-Reihe und bietet eine umfassende Suite aus dichten und Mixture-of-Experts (MoE)-Modellen.

Qwen1.5 ist die Beta-Version von Qwen2 und behält die Architektur eines decoder-only Transformer-Modells mit SwiGLU-Aktivierung, RoPE und mehrköpfigen Aufmerksamkeitsmechanismen bei. Es bietet neun Modellgrößen und hat verbesserte Mehrsprachigkeits- und Chatmodell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiel aktiviert, und der Code unterstützt die native Implementierung in Transformers.

Qwen1.5 ist die Beta-Version von Qwen2 und behält die Architektur eines Decoder-Only-Transformers mit SwiGLU-Aktivierung, RoPE und Multi-Head-Attention-Mechanismen bei. Es bietet neun Modellgrößen und verbesserte Multilinguismus- und Chat-Modell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiele aktiviert, und der Code unterstützt eine native Implementierung in Transformers.

Qwen1.5 ist die Beta-Version von Qwen2 und behält seine Architektur als Decoder-Only Transformer-Modell mit SwiGLU-Aktivierung, RoPE und Multi-Head-Attention-Mechanismen bei. Es bietet neun Modellgrößen und hat verbesserte Mehrsprachigkeits- und Chatmodell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiel aktiviert, und der Code unterstützt die native Implementierung in Transformers.

Qwen-Max ist ein API-Modell, das von Alibaba hergestellt wurde. Dies ist Version 0428.

Qwen3 ist die neueste Generation von großen Sprachmodellen in der Qwen-Reihe und bietet ein umfassendes Paket aus dichten und Mischungsmodellen von Experten (MoE).

Qwen3 ist die neueste Generation großer Sprachmodelle in der Qwen-Reihe und bietet ein umfassendes Angebot an dichten und Mixture-of-Experts-(MoE)-Modellen.

Wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

Qwen-Max ist ein API-Modell, das von Alibaba hergestellt wurde. Dies ist Version 0428.

Qwen1.5 ist die Beta-Version von Qwen2 und behält seine Architektur als decoder-only Transformer-Modell mit SwiGLU-Aktivierung, RoPE und Multi-Head-Attention-Mechanismen bei. Es bietet neun Modellgrößen und verbesserte Mehrsprachigkeits- und Chat-Modell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiele aktiviert, und das Code-Support-Native-Implementierung in Transformers.

Qwen2 ist die neue Serie von Qwen-Großsprachmodellen.

Qwen2 ist die neue Serie der großen Sprachmodelle von Qwen.

Qwen 2.5 Max ist ein großflächiges MoE-Modell (Mixture-of-Experts), das mit über 20 Billionen Tokens an Vorab-Trainingsdaten und einem sorgfältig konzipierten Nach-Trainingsschema trainiert wurde.

Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch mehrsprachige Unterstützung für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für mehr als 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

QwQ-32B-Preview ist ein experimentelles Forschungsmodell, das von der Qwen-Team entwickelt wurde und sich auf die Weiterentwicklung der AI-Reasoningfähigkeiten konzentriert.

Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

Qwen1.5 ist die Beta-Version von Qwen2 und behält seine Architektur als decoder-only Transformer-Modell mit SwiGLU-Aktivierung, RoPE und Multi-Head-Attention-Mechanismen bei. Es bietet neun Modellgrößen und hat verbesserte Mehrsprachigkeits- und Chat-Modell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben system-Prompts für Rollenspiel aktiviert, und das Code-Support-Native-Implementierung in Transformers.

Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch mehr als 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

Qwen1.5 ist die Beta-Version von Qwen2 und behält seine Architektur als Decoder-only Transformer-Modell mit SwiGLU-Aktivierung, RoPE und Multi-Head-Attention-Mechanismen bei. Es bietet neun Modellgrößen und hat verbesserte multilinguale und Chat-Modell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiel aktiviert, und der Code unterstützt eine native Implementierung in Transformers.

Perfil pessoal

Fundou o Alibaba Group, fornecendo visão estratégica para iniciativas de IA como Qwen por meio da Alibaba Cloud.

De volta ao topo
OR