вариант
Дом
Список моделей AL
DeepSeek-V2-Lite-Chat
Параметр модели
16B
Параметр модели
Аффилированная организация
DeepSeek
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
15 мая 2024 г.
Время выпуска

Введение модели
DeepSeek-V2, сильная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite — это лёгкая версия этой модели.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
3.8
Объем знаний Объем знаний
Объем знаний
Имеет значительные знания слепых пятен, часто показывающих фактические ошибки и повторяющуюся устаревшую информацию.
5.3
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
1.9
Сравнение модели
Связанная модель
DeepSeek-V3-0324 DeepSeek-V3 превосходит другие модели с открытым исходным кодом, такие как Qwen2.5-72B и Llama-3.1-405B, в различных оценках и соответствует производительности ведущих закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.
DeepSeek-R1-0528 Последняя версия Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 — это мощная модель языка типа Mixture-of-Experts (MoE), характеризующаяся экономичностью обучения и эффективностью вывода. Она содержит 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 демонстрирует более высокую производительность, при этом экономя 42,5% затрат на обучение, снижая объем KV-кэша на 93,3% и увеличивая максимальную пропускную способность генерации до 5,76 раз.
DeepSeek-V2.5 DeepSeek-V2.5 — это обновленная версия, объединяющая DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные возможности двух предыдущих версий.
DeepSeek-V3-0324 DeepSeek-V3 превосходит другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, во множестве оценок и соответствует уровню производительности премиальных закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.
Соответствующие документы
Концептуальные графики в объяснении: Руководство по искусственному интеллекту с простыми примерами Концептуальные графы стали основополагающим механизмом представления знаний в искусственном интеллекте, предлагая визуально интуитивный, но математически строгий способ моделирования сложных логически
FlexClip AI Video Translator упрощает создание многоязычных видеороликов В нашем цифровом ландшафте, который становится все более взаимосвязанным, видеоконтент теперь без труда преодолевает международные границы. ИИ-переводчик видео FlexClip разрушает языковые барьеры, поз
Освойте написание предложений на Upwork с помощью искусственного интеллекта: Ваше полное руководство по достижению успеха В условиях растущей конкуренции на рынке фриланса дифференциация - ключ к успеху. В этом подробном руководстве рассказывается о том, как искусственный интеллект может коренным образом изменить ваш под
Поиск Google расширяет режим интеллектуального искусственного интеллекта по всему миру Google выводит свой поисковый сервис на основе искусственного интеллекта еще в 180 стран, значительно расширив его возможности по сравнению с первоначальным внедрением в США, Великобритании и Индии. Н
Пошаговое руководство по созданию книг-раскрасок Amazon с помощью искусственного интеллекта Leonardo AI Мечтаете пробиться на процветающий книжный рынок Amazon? Книжки-раскраски предлагают фантастическую возможность пассивного дохода, но найти оригинальные иллюстрации может быть непросто. В этом подробн
Сравнение модели
Начните сравнение
Вернуться к вершине
OR