Zhou Jingren - Лучшие лидеры и новаторы ИИ | Профили, этапы и проекты - xix.ai
вариант

Откройте для себя качественные инструменты ИИ

Собирайте ведущие в мире инструменты искусственного интеллекта, чтобы помочь повысить эффективность работы

Поиск инструментов AL…
Дом
Знаменитость в ИИ
Zhou Jingren
Zhou Jingren

Zhou Jingren

Технический директор, Alibaba Cloud
Год рождения  неизвестно
Гражданство  Chinese

Важный этап

2018 Присоединился к Alibaba Cloud

Занял руководящие должности в области облачных вычислений и разработки ИИ

Запуск бета-версии Qwen 2023

Руководил бета-релизом Qwen (Tongyi Qianwen) в апреле 2023 года

Релиз Qwen2.5 2024

Возглавил запуск Qwen2.5, улучшив мультимодальные возможности

Продукт ИИ

Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).

Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют мультиязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen3 - это последнее поколение больших языковых моделей в серии Qwen, предлагающая комплексную совокупность плотных и смешанных экспертов (MoE) моделей.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру decoder-only transformer-модели с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Она предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32 768 токенов. Для всех моделей включена система подсказок для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру декодерного трансформатора с активацией SwiGLU, RoPE и механизмами внимания с множественными головами. Она предлагает девять размеров моделей и имеет улучшенные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру декодер-только с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Он предлагает девять размеров моделей и имеет улучшенные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen-Max — это модель API, созданная Alibaba. Это версия 0428

Qwen3 - это последнее поколение больших языковых моделей в серии Qwen, предлагая комплексный набор плотных и смешанных экспертов (MoE) моделей.

Qwen3 является последним поколением больших языковых моделей серии Qwen, предлагая комплекс моделей как плотных, так и смешанных экспертов (MoE).

Как и Qwen2, языковые модели Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают мультиязычный режим для более чем 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen-Max — это API-модель, созданная Alibaba. Это версия 0428.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру декодера-только с активацией SwiGLU, RoPE и механизмом многозадачного внимания. Она предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих длину контекста до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.

Qwen2 — это новая серия крупномасштабных языковых моделей Qwen.

Qwen2 — это новая серия больших языковых моделей Qwen.

Qwen 2.5 Max — это крупномасштабная модель MoE (Mixture-of-Experts), обученная с использованием более 20 триллионов токенов предварительного обучения и тщательно спроектированной схемы постобучения.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают более 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают мультимедийное обеспечение более чем на 29 языках, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и многие другие.

QwQ-32B-Preview - это экспериментальная исследовательская модель, разработанная командой Qwen, сосредоточенная на развитии способностей логического вывода ИИ.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают многоязычие более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и многие другие.

Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру только декодера с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Она предлагает девять размеров моделей и улучшенные возможности многоязычных и чат-моделей, поддерживающих длину контекста до 32 768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, а код поддерживает нативную реализацию в transformers.

Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют многоязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.

Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру только декодера с активацией SwiGLU, RoPE и механизмом внимания с множественными головами. Он предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32 768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, а код поддерживает нативную реализацию в transformers.

Личный профиль

Руководит инициативами Alibaba Cloud в области ИИ, контролируя разработку серии моделей Qwen.

Вернуться к вершине
OR