вариант
Дом
Список моделей AL
Mistral-7B-Instruct-v0.3
Параметр модели
7B
Параметр модели
Аффилированная организация
Mistral AI
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
22 мая 2024 г.
Время выпуска

Связанные лица

Введение модели
Языковая модель большого размера Mistral-7B-Instruct-v0.3 (LLM) является версией с доработкой под руководство для Mistral-7B-v0.3.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
3.0
Объем знаний Объем знаний
Объем знаний
Имеет значительные знания слепых пятен, часто показывающих фактические ошибки и повторяющуюся устаревшую информацию.
4.7
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
2.0
Сравнение модели
Связанная модель
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 — это передовая плотная большая модель языка (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 за счет лучшей поддержки длинного контекста, вызова функций и системных подсказок.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 - это передовая плотная большая языковая модель (LLM) с 123 миллиардами параметров, обладающая передовыми способностямиReasoning, знаний и программирования, расширяющая Mistral-Large-Instruct-2407 с улучшенной длинной контекста, вызовом функций и системными подсказками.
Mistral-Small-Instruct-2409 С 22 миллиардами параметров Mistral Small v24.09 предлагает клиентам удобную промежуточную точку между Mistral NeMo 12B и Mistral Large 2, предоставляя экономически эффективное решение, которое можно развернуть на различных платформах и в средах.
Mistral-Small-Instruct-2409 С 22 миллиардами параметров Mistral Small v24.09 предоставляет клиентам удобное решение между Mistral NeMo 12B и Mistral Large 2, предлагая экономически эффективное решение, которое можно развернуть на различных платформах и в разных средах.
Ministral-8B-Instruct-2410 Модель языка Ministral-8B-Instruct-2410 - это модель с инструкциями, существенно превосходящая существующие модели аналогичного размера, выпущенная под лицензией Mistral Research.
Соответствующие документы
Сэкономьте 900 долларов на билетах на TechCrunch Disrupt 2025 - осталось всего 6 дней! Не упустите последнюю возможность - осталось всего 6 дней, чтобы получить большие скидки на TechCrunch Disrupt 2025!Цены на билеты резко возрастут после 25 мая в 23:59 по тихоокеанскому времени. Дейст
Генеральный директор Klarna обещает премиальным клиентам персонализированный VIP-сервис Баланс между ИИ и человеком: Гендиректор Klarna делится инсайтамиПублика на лондонском SXSW внимательно слушала, как генеральный директор Klarna Себастьян Семятковский раскрыл личный источник вдохновения для кадровой стратегии своей компании. «Моя же
Брендан Фуди из Mercor объясняет революцию ИИ в сфере найма на TechCrunch Disrupt 2025 Будущее работы уже наступилоТрансформация рабочих мест не грядет - она происходит на наших глазах.На сцене ИИ TechCrunch Disrupt 2025 генеральный директор Mercor Брендан Фуди расскажет о том, как иску
TechCrunch Sessions: AI предлагает сэкономить $325, осталось 4 дня Время на исходе! Успейте занять свое место на TechCrunch Sessions: AI в течение следующих четырех дней, чтобы сэкономить до $325. Срок действия этого эксклюзивного предложения истекает 2 марта в 23:59
Equals: Искусственный интеллект в таблицах упрощает анализ данных и автоматизацию Устали от громоздких формул в электронных таблицах и ручной обработки данных? Представьте интеллектуальное решение, где анализ данных становится легким благодаря автоматизации, предоставляющей практические выводы по простым командам. Equals Spreadshe
Сравнение модели
Начните сравнение
Вернуться к вершине
OR