вариант
Дом
Список моделей AL
DeepSeek-V2-Chat-0628
Параметр модели
236B
Параметр модели
Аффилированная организация
DeepSeek
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
6 мая 2024 г.
Время выпуска

Введение модели
DeepSeek-V2 — это мощная модель языка типа Mixture-of-Experts (MoE), характеризующаяся экономичностью обучения и эффективностью вывода. Она содержит 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 демонстрирует более высокую производительность, при этом экономя 42,5% затрат на обучение, снижая объем KV-кэша на 93,3% и увеличивая максимальную пропускную способность генерации до 5,76 раз.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
4.6
Объем знаний Объем знаний
Объем знаний
Обладает основными знаниями в основных дисциплинах, но имеет ограниченный охват передовых междисциплинарных полей.
7.8
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
4.7
Сравнение модели
Связанная модель
DeepSeek-V3-0324 DeepSeek-V3 превосходит другие модели с открытым исходным кодом, такие как Qwen2.5-72B и Llama-3.1-405B, в различных оценках и соответствует производительности ведущих закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.
DeepSeek-R1-0528 Последняя версия Deepseek R1.
DeepSeek-V2.5 DeepSeek-V2.5 — это обновленная версия, объединяющая DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные возможности двух предыдущих версий.
DeepSeek-V3-0324 DeepSeek-V3 превосходит другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, во множестве оценок и соответствует уровню производительности премиальных закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, сильная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite — это лёгкая версия этой модели.
Соответствующие документы
Концептуальные графики в объяснении: Руководство по искусственному интеллекту с простыми примерами Концептуальные графы стали основополагающим механизмом представления знаний в искусственном интеллекте, предлагая визуально интуитивный, но математически строгий способ моделирования сложных логически
FlexClip AI Video Translator упрощает создание многоязычных видеороликов В нашем цифровом ландшафте, который становится все более взаимосвязанным, видеоконтент теперь без труда преодолевает международные границы. ИИ-переводчик видео FlexClip разрушает языковые барьеры, поз
Освойте написание предложений на Upwork с помощью искусственного интеллекта: Ваше полное руководство по достижению успеха В условиях растущей конкуренции на рынке фриланса дифференциация - ключ к успеху. В этом подробном руководстве рассказывается о том, как искусственный интеллект может коренным образом изменить ваш под
Поиск Google расширяет режим интеллектуального искусственного интеллекта по всему миру Google выводит свой поисковый сервис на основе искусственного интеллекта еще в 180 стран, значительно расширив его возможности по сравнению с первоначальным внедрением в США, Великобритании и Индии. Н
Пошаговое руководство по созданию книг-раскрасок Amazon с помощью искусственного интеллекта Leonardo AI Мечтаете пробиться на процветающий книжный рынок Amazon? Книжки-раскраски предлагают фантастическую возможность пассивного дохода, но найти оригинальные иллюстрации может быть непросто. В этом подробн
Сравнение модели
Начните сравнение
Вернуться к вершине
OR