вариант
Дом
Список моделей AL
Mixtral-8x7B-Instruct-v0.1
Параметр модели
47B
Параметр модели
Аффилированная организация
Mistral AI
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
11 декабря 2023 г.
Время выпуска
Введение модели
Mixtral-8x7B – это предварительно обученная генеративная модель Sparse Mixture of Experts. Mistral-8x7B показывает лучшие результаты, чем Llama 2 70B, по большинству тестов, которые мы провели.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
3.6
Объем знаний Объем знаний
Объем знаний
Имеет значительные знания слепых пятен, часто показывающих фактические ошибки и повторяющуюся устаревшую информацию.
5.0
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
2.8
Сравнение модели
Связанная модель
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 — это передовая плотная большая модель языка (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 за счет лучшей поддержки длинного контекста, вызова функций и системных подсказок.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 - это передовая плотная большая языковая модель (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 с улучшенной длинной контекста, вызовом функций и системными подсказками.
Mistral-Small-Instruct-2409 С 22 миллиардами параметров Mistral Small v24.09 предлагает клиентам удобную промежуточную точку между Mistral NeMo 12B и Mistral Large 2, предоставляя экономически эффективное решение, которое можно развернуть на различных платформах и в средах.
Mistral-Small-Instruct-2409 С 22 миллиардами параметров Mistral Small v24.09 предоставляет клиентам удобное решение между Mistral NeMo 12B и Mistral Large 2, предлагая экономически эффективное решение, которое можно развернуть на различных платформах и в разных средах.
Ministral-8B-Instruct-2410 Модель языка Ministral-8B-Instruct-2410 - это модель с инструкциями, существенно превосходящая существующие модели аналогичного размера, выпущенная под лицензией Mistral Research.
Соответствующие документы
AI-управляемый NoteGPT преобразует процесс обучения на YouTube В современном быстро меняющемся мире эффективное обучение имеет решающее значение. NoteGPT — это динамичное расширение для Chrome, которое радикально меняет способ взаимодействия с контентом YouTube.
Сообщество профсоюза и Google объединяются для повышения навыков работы с ИИ среди работников Великобритании Примечание редактора: Google в партнерстве с профсоюзом Community в Великобритании демонстрирует, как навыки работы с ИИ могут улучшить возможности как офисных, так и производственных работников. Эта
Magi-1 представляет революционную технологию генерации видео с открытым исходным кодом Сфера создания видео с использованием искусственного интеллекта быстро развивается, и Magi-1 знаменует собой переломный момент. Эта инновационная модель с открытым исходным кодом предлагает непревзойд
AI Ethics: Навигация по рискам и обязанностям в разработке технологий Искусственный интеллект (AI) трансформирует отрасли, от здравоохранения до логистики, предлагая огромный потенциал для прогресса. Однако его быстрое развитие приносит значительные риски, требующие тща
AI-управляемый дизайн интерьеров: ReRoom AI преображает ваше пространство Хотите обновить свой дом, но не хватает дизайнерских навыков или средств на профессионала? Искусственный интеллект меняет подход к дизайну интерьеров, предлагая удобные и креативные решения. ReRoom AI
Сравнение модели
Начните сравнение
Вернуться к вершине
OR