Jack Ma - Лучшие лидеры и новаторы ИИ | Профили, этапы и проекты - xix.ai
вариант

Откройте для себя качественные инструменты ИИ

Собирайте ведущие в мире инструменты искусственного интеллекта, чтобы помочь повысить эффективность работы

Поиск инструментов AL…
Дом
Знаменитость в ИИ
Jack Ma
Jack Ma

Jack Ma

Основатель, Alibaba Group
Год рождения  1964
Гражданство  Chinese

Важный этап

1999 Основана Alibaba Group

Создана Alibaba, заложившая основу для её AI-подразделения

Запуск DAMO Academy 2018

Инициирована Alibaba DAMO Academy для исследований в области AI

Публичный выпуск Qwen 2023

Поддержал публичный выпуск моделей Qwen под управлением Alibaba Cloud

Продукт ИИ

Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).

Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют мультиязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen3 - это последнее поколение больших языковых моделей в серии Qwen, предлагающая комплексную совокупность плотных и смешанных экспертов (MoE) моделей.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру decoder-only transformer-модели с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Она предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32 768 токенов. Для всех моделей включена система подсказок для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру декодерного трансформатора с активацией SwiGLU, RoPE и механизмами внимания с множественными головами. Она предлагает девять размеров моделей и имеет улучшенные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру декодер-только с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Он предлагает девять размеров моделей и имеет улучшенные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen-Max — это модель API, созданная Alibaba. Это версия 0428

Qwen3 - это последнее поколение больших языковых моделей в серии Qwen, предлагая комплексный набор плотных и смешанных экспертов (MoE) моделей.

Qwen3 является последним поколением больших языковых моделей серии Qwen, предлагая комплекс моделей как плотных, так и смешанных экспертов (MoE).

Как и Qwen2, языковые модели Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают мультиязычный режим для более чем 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen-Max — это API-модель, созданная Alibaba. Это версия 0428.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру декодера-только с активацией SwiGLU, RoPE и механизмом многозадачного внимания. Она предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих длину контекста до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen2 — это новая серия крупномасштабных языковых моделей Qwen.

Qwen2 — это новая серия больших языковых моделей Qwen.

Qwen 2.5 Max — это крупномасштабная модель MoE (Mixture-of-Experts), обученная с использованием более 20 триллионов токенов предварительного обучения и тщательно спроектированной схемы постобучения.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают более 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают мультимедийное обеспечение более чем на 29 языках, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и многие другие.

QwQ-32B-Preview - это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на развитии способностей логического вывода ИИ.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают многоязычие более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и многие другие.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру только декодера с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Она предлагает девять размеров моделей и улучшенные возможности многоязычных и чат-моделей, поддерживающих длину контекста до 32 768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, а код поддерживает нативную реализацию в transformers.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют многоязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру только декодера с активацией SwiGLU, RoPE и механизмом внимания с множественными головами. Он предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32 768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, а код поддерживает нативную реализацию в transformers.

Личный профиль

Основал Alibaba Group, обеспечивая стратегическое видение для инициатив в области ИИ, таких как Qwen, через Alibaba Cloud.

Вернуться к вершине
OR