вариант
Параметр модели
7B
Параметр модели
Аффилированная организация
Alibaba
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
19 сентября 2024 г.
Время выпуска

Введение модели
Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также поддерживают многоязычие более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и многие другие.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
4.3
Объем знаний Объем знаний
Объем знаний
Имеет значительные знания слепых пятен, часто показывающих фактические ошибки и повторяющуюся устаревшую информацию.
6.7
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
4.0
Сравнение модели
Связанная модель
Qwen3-235B-A22B-Instruct-2507 Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).
Qwen3-235B-A22B-Thinking-2507 Qwen3 — это последнее поколение больших языковых моделей серии Qwen, предлагающее полный набор плотных моделей и моделей с смесью экспертов (MoE).
Qwen2.5-7B-Instruct Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют мультиязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.
Qwen3-32B (Thinking) Qwen3 - это последнее поколение больших языковых моделей в серии Qwen, предлагающая комплексную совокупность плотных и смешанных экспертов (MoE) моделей.
Qwen1.5-72B-Chat Qwen1.5 — это бета-версия Qwen2, сохраняющая архитектуру decoder-only transformer-модели с активацией SwiGLU, RoPE и механизмом внимания с многими головами. Она предлагает девять размеров моделей и имеет усиленные возможности многоязычных и чат-моделей, поддерживающих контекст длиной до 32 768 токенов. Для всех моделей включена система подсказок для ролевых игр, и код поддерживает нативную реализацию в transformers.
Соответствующие документы
Google представляет инструменты с искусственным интеллектом для Gmail, документов и видеороликов Google представила на I/O 2025 обновления рабочего пространства с поддержкой искусственного интеллектаВ ходе ежегодной конференции для разработчиков компания Google представила инновационные усовершен
AWS запускает Bedrock AgentCore: Платформа с открытым исходным кодом для разработки корпоративных агентов искусственного интеллекта Вот переписанный HTML-контент:AWS запускает Bedrock AgentCore для корпоративных ИИ-агентов Amazon Web Services (AWS) делает большую ставку на ИИ-агентов, преобразующих бизнес-операции, представляя Ama
Akaluli AI Voice Recorder повышает продуктивность и эффективность концентрации внимания В нашей гиперсвязанной рабочей среде сохранять концентрацию во время важных разговоров становится все сложнее. Диктофон Akaluli AI представляет собой инновационное решение этой современной дилеммы, по
Spotify повышает стоимость подписки Premium на рынках за пределами США Spotify повышает цены на подписку на нескольких международных рынках всего через несколько дней после того, как отчитался о неутешительных финансовых показателях. В понедельник гигант потокового вещан
Cairn RPG: простая в освоении настольная система для новых игроков Хотите получить захватывающее представление о настольных ролевых играх, но при этом не перегрузить новичков? Представьте, что вы организуете целое приключение с десятью новичками всего за пятнадцать м
Сравнение модели
Начните сравнение
Вернуться к вершине
OR