вариант
Параметр модели
236B
Параметр модели
Аффилированная организация
DeepSeek
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
6 мая 2024 г.
Время выпуска

Введение модели
DeepSeek-V2 — мощная модель языка в формате Mixture-of-Experts (MoE), характеризующаяся экономичным обучением и эффективной инференсом. Она состоит из 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 показывает более высокую производительность, при этом экономит 42.5% затрат на обучение, снижает размер KV-кэша на 93.3% и увеличивает максимальную пропускную способность генерации в 5.76 раза.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
5.0
Объем знаний Объем знаний
Объем знаний
Имеет значительные знания слепых пятен, часто показывающих фактические ошибки и повторяющуюся устаревшую информацию.
6.3
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
4.1
Сравнение модели
Связанная модель
DeepSeek-V3-0324 DeepSeek-V3 превосходит другие модели с открытым исходным кодом, такие как Qwen2.5-72B и Llama-3.1-405B, в различных оценках и соответствует производительности ведущих закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.
DeepSeek-R1-0528 Последняя версия Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 — это мощная модель языка типа Mixture-of-Experts (MoE), характеризующаяся экономичностью обучения и эффективностью вывода. Она содержит 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 демонстрирует более высокую производительность, при этом экономя 42,5% затрат на обучение, снижая объем KV-кэша на 93,3% и увеличивая максимальную пропускную способность генерации до 5,76 раз.
DeepSeek-V2.5 DeepSeek-V2.5 — это обновленная версия, объединяющая DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные возможности двух предыдущих версий.
DeepSeek-V3-0324 DeepSeek-V3 превосходит другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, во множестве оценок и соответствует уровню производительности премиальных закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.
Соответствующие документы
Консольные игры Xbox неожиданно появляются на платформе приложений Xbox для ПК Приложение Xbox от Microsoft для Windows демонстрирует необычное поведение, которое намекает на большие стратегические изменения. Приложение Xbox для ПК недавно начало отображать игры для консоли Xbox
Автоматизация создания информационных бюллетеней с помощью искусственного интеллекта для оптимизированного контент-маркетинга В современном конкурентном цифровом ландшафте компании постоянно ищут способы повысить эффективность своих усилий в области контент-маркетинга и одновременно оптимизировать их. Автоматизация рассылок
Классические часы Casio получают современные обновления: Bluetooth, отслеживание шагов и игры Легендарные цифровые часы Casio F-91W, не менявшиеся с момента своего дебюта в 1989 году, наконец-то получили современные интеллектуальные функции - правда, как ни странно, не от самой компании Casio.
Чатбот Google Gemini получил расширенные возможности анализа проектов GitHub Gemini Advanced интегрирует возможность подключения к GitHubПремиум-подписчики Google Gemini Advanced (20 долларов в месяц) теперь могут напрямую подключать репозитории GitHub к помощнику искусственно
ИИ преобразует игры с помощью дипломатии, мета-ИИ и достижений в области обучения с подкреплением Игровой ландшафт претерпевает глубокие изменения благодаря искусственному интеллекту, революционизирующему все - от стратегического геймплея до захватывающего цифрового опыта. ИИ не просто соревнуется
Сравнение модели
Начните сравнение
Вернуться к вершине
OR