вариант
Дом
Список моделей AL
Mistral-Small-Instruct-2409
Параметр модели
22B
Параметр модели
Аффилированная организация
Mistral AI
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
17 сентября 2024 г.
Время выпуска

Связанные лица

Введение модели
С 22 миллиардами параметров Mistral Small v24.09 предлагает клиентам удобную промежуточную точку между Mistral NeMo 12B и Mistral Large 2, предоставляя экономически эффективное решение, которое можно развернуть на различных платформах и в средах.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
4.2
Объем знаний Объем знаний
Объем знаний
Имеет значительные знания слепых пятен, часто показывающих фактические ошибки и повторяющуюся устаревшую информацию.
6.3
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
4.2
Сравнение модели
Связанная модель
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 — это передовая плотная большая модель языка (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 за счет лучшей поддержки длинного контекста, вызова функций и системных подсказок.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 - это передовая плотная большая языковая модель (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 с улучшенной длинной контекста, вызовом функций и системными подсказками.
Mistral-Small-Instruct-2409 С 22 миллиардами параметров Mistral Small v24.09 предоставляет клиентам удобное решение между Mistral NeMo 12B и Mistral Large 2, предлагая экономически эффективное решение, которое можно развернуть на различных платформах и в разных средах.
Ministral-8B-Instruct-2410 Модель языка Ministral-8B-Instruct-2410 - это модель с инструкциями, существенно превосходящая существующие модели аналогичного размера, выпущенная под лицензией Mistral Research.
Mixtral-8x22B-Instruct-v0.1 Mixtral 8x22B — это модель Sparse Mixture-of-Experts (SMoE), которая использует только 39 миллиардов активных параметров из 141 миллиарда, предлагая исключительную экономию затрат для своего размера.
Соответствующие документы
Брендан Фуди из Mercor объясняет революцию ИИ в сфере найма на TechCrunch Disrupt 2025 Будущее работы уже наступилоТрансформация рабочих мест не грядет - она происходит на наших глазах.На сцене ИИ TechCrunch Disrupt 2025 генеральный директор Mercor Брендан Фуди расскажет о том, как иску
TechCrunch Sessions: AI предлагает сэкономить $325, осталось 4 дня Время на исходе! Успейте занять свое место на TechCrunch Sessions: AI в течение следующих четырех дней, чтобы сэкономить до $325. Срок действия этого эксклюзивного предложения истекает 2 марта в 23:59
Equals: Искусственный интеллект в таблицах упрощает анализ данных и автоматизацию Устали от громоздких формул в электронных таблицах и ручной обработки данных? Представьте интеллектуальное решение, где анализ данных становится легким благодаря автоматизации, предоставляющей практические выводы по простым командам. Equals Spreadshe
ИИ-агенты без кода позволяют любому человеку мгновенно создавать вирусные POV-видео Цифровая эра требует убедительного контента, который захватывает аудиторию, особенно благодаря захватывающей силе видеороликов с точки зрения зрителя. Узнайте, как сочетание искусственного интеллекта
Microsoft объединяет функции Windows и Xbox для игрового опыта на портативных ПК Microsoft в партнерстве с Asus представила две революционные игровые портативные консоли ROG Xbox Ally, внедрив инновационный полноэкранный интерфейс Xbox, специально оптимизированный для портативного гейминга. После ранее объявленных планов по бесшо
Сравнение модели
Начните сравнение
Вернуться к вершине
OR