вариант
Дом
Список моделей AL
Mistral-Small-Instruct-2409
Параметр модели
22B
Параметр модели
Аффилированная организация
Mistral AI
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
17 сентября 2024 г.
Время выпуска

Связанные лица

Введение модели
С 22 миллиардами параметров Mistral Small v24.09 предоставляет клиентам удобное решение между Mistral NeMo 12B и Mistral Large 2, предлагая экономически эффективное решение, которое можно развернуть на различных платформах и в разных средах.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
4.5
Объем знаний Объем знаний
Объем знаний
Имеет значительные знания слепых пятен, часто показывающих фактические ошибки и повторяющуюся устаревшую информацию.
5.5
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
4.5
Сравнение модели
Связанная модель
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 — это передовая плотная большая модель языка (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 за счет лучшей поддержки длинного контекста, вызова функций и системных подсказок.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 - это передовая плотная большая языковая модель (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 с улучшенной длинной контекста, вызовом функций и системными подсказками.
Mistral-Small-Instruct-2409 С 22 миллиардами параметров Mistral Small v24.09 предлагает клиентам удобную промежуточную точку между Mistral NeMo 12B и Mistral Large 2, предоставляя экономически эффективное решение, которое можно развернуть на различных платформах и в средах.
Ministral-8B-Instruct-2410 Модель языка Ministral-8B-Instruct-2410 - это модель с инструкциями, существенно превосходящая существующие модели аналогичного размера, выпущенная под лицензией Mistral Research.
Mixtral-8x22B-Instruct-v0.1 Mixtral 8x22B — это модель Sparse Mixture-of-Experts (SMoE), которая использует только 39 миллиардов активных параметров из 141 миллиарда, предлагая исключительную экономию затрат для своего размера.
Соответствующие документы
Google представляет инструменты с искусственным интеллектом для Gmail, документов и видеороликов Google представила на I/O 2025 обновления рабочего пространства с поддержкой искусственного интеллектаВ ходе ежегодной конференции для разработчиков компания Google представила инновационные усовершен
AWS запускает Bedrock AgentCore: Платформа с открытым исходным кодом для разработки корпоративных агентов искусственного интеллекта Вот переписанный HTML-контент:AWS запускает Bedrock AgentCore для корпоративных ИИ-агентов Amazon Web Services (AWS) делает большую ставку на ИИ-агентов, преобразующих бизнес-операции, представляя Ama
Akaluli AI Voice Recorder повышает продуктивность и эффективность концентрации внимания В нашей гиперсвязанной рабочей среде сохранять концентрацию во время важных разговоров становится все сложнее. Диктофон Akaluli AI представляет собой инновационное решение этой современной дилеммы, по
Spotify повышает стоимость подписки Premium на рынках за пределами США Spotify повышает цены на подписку на нескольких международных рынках всего через несколько дней после того, как отчитался о неутешительных финансовых показателях. В понедельник гигант потокового вещан
Cairn RPG: простая в освоении настольная система для новых игроков Хотите получить захватывающее представление о настольных ролевых играх, но при этом не перегрузить новичков? Представьте, что вы организуете целое приключение с десятью новичками всего за пятнадцать м
Сравнение модели
Начните сравнение
Вернуться к вершине
OR