вариант
Дом
Список моделей AL
Mixtral-8x7B-Instruct-v0.1
Параметр модели
47B
Параметр модели
Аффилированная организация
Mistral AI
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
11 декабря 2023 г.
Время выпуска

Введение модели
Mixtral-8x7B – это предварительно обученная генеративная модель Sparse Mixture of Experts. Mistral-8x7B показывает лучшие результаты, чем Llama 2 70B, по большинству тестов, которые мы провели.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
3.6
Объем знаний Объем знаний
Объем знаний
Имеет значительные знания слепых пятен, часто показывающих фактические ошибки и повторяющуюся устаревшую информацию.
5.0
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
2.8
Сравнение модели
Связанная модель
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 — это передовая плотная большая модель языка (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 за счет лучшей поддержки длинного контекста, вызова функций и системных подсказок.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 - это передовая плотная большая языковая модель (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 с улучшенной длинной контекста, вызовом функций и системными подсказками.
Mistral-Small-Instruct-2409 С 22 миллиардами параметров Mistral Small v24.09 предлагает клиентам удобную промежуточную точку между Mistral NeMo 12B и Mistral Large 2, предоставляя экономически эффективное решение, которое можно развернуть на различных платформах и в средах.
Mistral-Small-Instruct-2409 С 22 миллиардами параметров Mistral Small v24.09 предоставляет клиентам удобное решение между Mistral NeMo 12B и Mistral Large 2, предлагая экономически эффективное решение, которое можно развернуть на различных платформах и в разных средах.
Ministral-8B-Instruct-2410 Модель языка Ministral-8B-Instruct-2410 - это модель с инструкциями, существенно превосходящая существующие модели аналогичного размера, выпущенная под лицензией Mistral Research.
Соответствующие документы
TechCrunch Sessions: AI предлагает сэкономить $325, осталось 4 дня Время на исходе! Успейте занять свое место на TechCrunch Sessions: AI в течение следующих четырех дней, чтобы сэкономить до $325. Срок действия этого эксклюзивного предложения истекает 2 марта в 23:59
Equals: Искусственный интеллект в таблицах упрощает анализ данных и автоматизацию Устали от громоздких формул в электронных таблицах и ручной обработки данных? Представьте интеллектуальное решение, где анализ данных становится легким благодаря автоматизации, предоставляющей практические выводы по простым командам. Equals Spreadshe
ИИ-агенты без кода позволяют любому человеку мгновенно создавать вирусные POV-видео Цифровая эра требует убедительного контента, который захватывает аудиторию, особенно благодаря захватывающей силе видеороликов с точки зрения зрителя. Узнайте, как сочетание искусственного интеллекта
Microsoft объединяет функции Windows и Xbox для игрового опыта на портативных ПК Microsoft в партнерстве с Asus представила две революционные игровые портативные консоли ROG Xbox Ally, внедрив инновационный полноэкранный интерфейс Xbox, специально оптимизированный для портативного гейминга. После ранее объявленных планов по бесшо
AI Charm Show раскрывает секреты красоты и уверенности в себе Добро пожаловать на AI Charm Show, где мы исследуем захватывающую синергию между искусственным интеллектом и личным магнетизмом. Мы не ограничиваемся поверхностной красотой, а рассматриваем основы под
Сравнение модели
Начните сравнение
Вернуться к вершине
OR