Jack Ma - Principais Líderes e Inovadores de IA | Perfis, Marcos e Projetos - xix.ai
opção

Descubra ferramentas de qualidade de qualidade

Reunir as principais ferramentas de inteligência artificial do mundo para ajudar a melhorar a eficiência do trabalho

Procure por ferramentas AL…
Lar
Celebridade de IA
Jack Ma
Jack Ma

Jack Ma

Fundador, Alibaba Group
Ano de nascimento  1964
Nacionalidade  Chinese

Marco importante

1999 Fundou o Grupo Alibaba

Estabeleceu a Alibaba, lançando as bases para sua divisão de IA

Lançamento da DAMO Academy 2018

Iniciou a DAMO Academy da Alibaba para pesquisa em AI

Lançamento Público do Qwen 2023

Apoiou o lançamento público dos modelos Qwen sob a Alibaba Cloud

Produto de IA

Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).

Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют мультиязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen3 - это последнее поколение больших языковых моделей в серии Qwen, предлагающая комплексную совокупность плотных и смешанных экспертов (MoE) моделей.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру decoder-only transformer-модели с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Она предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32 768 токенов. Для всех моделей включена система подсказок для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру декодерного трансформатора с активацией SwiGLU, RoPE и механизмами внимания с множественными головами. Она предлагает девять размеров моделей и имеет улучшенные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру декодер-только с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Он предлагает девять размеров моделей и имеет улучшенные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen-Max — это модель API, созданная Alibaba. Это версия 0428

Qwen3 - это последнее поколение больших языковых моделей в серии Qwen, предлагая комплексный набор плотных и смешанных экспертов (MoE) моделей.

Qwen3 является последним поколением больших языковых моделей серии Qwen, предлагая комплекс моделей как плотных, так и смешанных экспертов (MoE).

Как и Qwen2, языковые модели Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают мультиязычный режим для более чем 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen-Max — это API-модель, созданная Alibaba. Это версия 0428.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру декодера-только с активацией SwiGLU, RoPE и механизмом многозадачного внимания. Она предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих длину контекста до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen2 — это новая серия крупномасштабных языковых моделей Qwen.

Qwen2 — это новая серия больших языковых моделей Qwen.

Qwen 2.5 Max — это крупномасштабная модель MoE (Mixture-of-Experts), обученная с использованием более 20 триллионов токенов предварительного обучения и тщательно спроектированной схемы постобучения.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают более 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают мультимедийное обеспечение более чем на 29 языках, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и многие другие.

QwQ-32B-Preview - это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на развитии способностей логического вывода ИИ.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают многоязычие более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и многие другие.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру только декодера с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Она предлагает девять размеров моделей и улучшенные возможности многоязычных и чат-моделей, поддерживающих длину контекста до 32 768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, а код поддерживает нативную реализацию в transformers.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют многоязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру только декодера с активацией SwiGLU, RoPE и механизмом внимания с множественными головами. Он предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32 768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, а код поддерживает нативную реализацию в transformers.

Perfil pessoal

Fundou o Alibaba Group, fornecendo visão estratégica para iniciativas de IA como Qwen por meio da Alibaba Cloud.

De volta ao topo
OR