вариант
Дом
Список моделей AL
Mixtral-8x22B-Instruct-v0.1
Параметр модели
141B
Параметр модели
Аффилированная организация
Mistral AI
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
17 апреля 2024 г.
Время выпуска
Введение модели
Mixtral 8x22B — это модель Sparse Mixture-of-Experts (SMoE), которая использует только 39 миллиардов активных параметров из 141 миллиарда, предлагая исключительную экономию затрат для своего размера.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
3.3
Объем знаний Объем знаний
Объем знаний
Обладает основными знаниями в основных дисциплинах, но имеет ограниченный охват передовых междисциплинарных полей.
7.2
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
2.8
Сравнение модели
Связанная модель
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 — это передовая плотная большая модель языка (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 за счет лучшей поддержки длинного контекста, вызова функций и системных подсказок.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 - это передовая плотная большая языковая модель (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 с улучшенной длинной контекста, вызовом функций и системными подсказками.
Mistral-Small-Instruct-2409 С 22 миллиардами параметров Mistral Small v24.09 предлагает клиентам удобную промежуточную точку между Mistral NeMo 12B и Mistral Large 2, предоставляя экономически эффективное решение, которое можно развернуть на различных платформах и в средах.
Mistral-Small-Instruct-2409 С 22 миллиардами параметров Mistral Small v24.09 предоставляет клиентам удобное решение между Mistral NeMo 12B и Mistral Large 2, предлагая экономически эффективное решение, которое можно развернуть на различных платформах и в разных средах.
Ministral-8B-Instruct-2410 Модель языка Ministral-8B-Instruct-2410 - это модель с инструкциями, существенно превосходящая существующие модели аналогичного размера, выпущенная под лицензией Mistral Research.
Соответствующие документы
AI-управляемый NoteGPT преобразует процесс обучения на YouTube В современном быстро меняющемся мире эффективное обучение имеет решающее значение. NoteGPT — это динамичное расширение для Chrome, которое радикально меняет способ взаимодействия с контентом YouTube.
Сообщество профсоюза и Google объединяются для повышения навыков работы с ИИ среди работников Великобритании Примечание редактора: Google в партнерстве с профсоюзом Community в Великобритании демонстрирует, как навыки работы с ИИ могут улучшить возможности как офисных, так и производственных работников. Эта
Magi-1 представляет революционную технологию генерации видео с открытым исходным кодом Сфера создания видео с использованием искусственного интеллекта быстро развивается, и Magi-1 знаменует собой переломный момент. Эта инновационная модель с открытым исходным кодом предлагает непревзойд
AI Ethics: Навигация по рискам и обязанностям в разработке технологий Искусственный интеллект (AI) трансформирует отрасли, от здравоохранения до логистики, предлагая огромный потенциал для прогресса. Однако его быстрое развитие приносит значительные риски, требующие тща
AI-управляемый дизайн интерьеров: ReRoom AI преображает ваше пространство Хотите обновить свой дом, но не хватает дизайнерских навыков или средств на профессионала? Искусственный интеллект меняет подход к дизайну интерьеров, предлагая удобные и креативные решения. ReRoom AI
Сравнение модели
Начните сравнение
Вернуться к вершине
OR