вариант
Параметр модели
14B
Параметр модели
Аффилированная организация
Alibaba
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
4 февраля 2024 г.
Время выпуска

Введение модели
Qwen1.5 является бета-версией Qwen2, сохраняя архитектуру декодер-только с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Он предлагает девять размеров моделей и имеет улучшенные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32,768 токенов. Все модели имеют включенные системные подсказки для ролевых игр, и код поддерживает нативную реализацию в transformers.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
5.7
Объем знаний Объем знаний
Объем знаний
Имеет значительные знания слепых пятен, часто показывающих фактические ошибки и повторяющуюся устаревшую информацию.
5.8
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
3.8
Сравнение модели
Связанная модель
Qwen3-235B-A22B-Instruct-2507 Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).
Qwen3-235B-A22B-Thinking-2507 Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).
Qwen2.5-7B-Instruct Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют мультиязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.
Qwen3-32B (Thinking) Qwen3 - это последнее поколение больших языковых моделей в серии Qwen, предлагающая комплексную совокупность плотных и смешанных экспертов (MoE) моделей.
Qwen1.5-72B-Chat Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру decoder-only transformer-модели с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Она предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32 768 токенов. Для всех моделей включена система подсказок для ролевых игр, и код поддерживает нативную реализацию в transformers.
Соответствующие документы
AI революционизирует производство анимационных фильмов: Полное руководство Цифровая эра сделала мультипликационную анимацию на основе искусственного интеллекта более доступной, чем когда-либо. Это полное руководство охватывает все этапы создания анимационных фильмов с помощь
Проблемы этики ИИ: Баланс между искусством, культурой и технологическим прогрессом Искусственный интеллект кардинально меняет современное общество, оказывая влияние на все сферы - от творческих искусств до технологической этики. В данном исследовании рассматривается вопрос о том, ка
Kimi K2 by Moonshot AI представляет прорыв с открытым исходным кодом на триллион параметров ИИ вступает в эпоху преобразованийИскусственный интеллект переживает смену парадигмы, поскольку языковые модели достигают беспрецедентного масштаба и сложности. Эти передовые системы совершают революц
Google представила 9 новых интересных функций в мягком запуске приложения Home Приложение Google Home получило значительные обновления в предварительной версии 2025 годаКомпания Google значительно улучшила свое приложение Home, добавив в него несколько принципиально новых функци
Grammarly расширяется до платформы продуктивности с искусственным интеллектом Компания Grammarly объявила о планах по приобретению популярного приложения для повышения эффективности работы с электронной почтой Superhuman, говорится в официальном заявлении. Этот шаг стратегическ
Сравнение модели
Начните сравнение
Вернуться к вершине
OR