вариант
Дом
Список моделей AL
DeepSeek-V2-Chat-0628
Параметр модели
236B
Параметр модели
Аффилированная организация
DeepSeek
Аффилированная организация
Открытый исходный код
Тип лицензии
Время выпуска
6 мая 2024 г.
Время выпуска
Введение модели
DeepSeek-V2 — это мощная модель языка типа Mixture-of-Experts (MoE), характеризующаяся экономичностью обучения и эффективностью вывода. Она содержит 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 демонстрирует более высокую производительность, при этом экономя 42,5% затрат на обучение, снижая объем KV-кэша на 93,3% и увеличивая максимальную пропускную способность генерации до 5,76 раз.
Смахните влево и вправо, чтобы посмотреть больше
Способность к пониманию языка Способность к пониманию языка
Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
4.6
Объем знаний Объем знаний
Объем знаний
Обладает основными знаниями в основных дисциплинах, но имеет ограниченный охват передовых междисциплинарных полей.
7.8
Способность рассуждать Способность рассуждать
Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
4.7
Сравнение модели
Связанная модель
DeepSeek-V2.5 DeepSeek-V2.5 — это обновленная версия, объединяющая DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные возможности двух предыдущих версий.
DeepSeek-V3-0324 DeepSeek-V3 превосходит другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, во множестве оценок и соответствует уровню производительности премиальных закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, сильная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite — это лёгкая версия этой модели.
DeepSeek-V2-Chat DeepSeek-V2 — мощная модель языка в формате Mixture-of-Experts (MoE), характеризующаяся экономичным обучением и эффективной инференсом. Она состоит из 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 показывает более высокую производительность, при этом экономит 42.5% затрат на обучение, снижает размер KV-кэша на 93.3% и увеличивает максимальную пропускную способность генерации в 5.76 раза.
DeepSeek-R1 DeepSeek-R1 - это модель, обученная с использованием масштабируемого усиленного обучения (RL) без применения начального шага тонкой настройки с участием supervision (SFT). Её производительность в математических, программных и логических задачах сравнима с OpenAI-o1.
Соответствующие документы
AI-управляемое образование: Революция в обучении на всех уровнях Искусственный интеллект (AI) трансформирует образование, предоставляя инновационные инструменты для вовлечения учащихся и персонализации обучения. Эта статья рассматривает, как педагоги могут использо
AI против человеческих авторов: Могут ли машины превзойти творчество? В эпоху, ориентированную на контент, споры о том, может ли искусственный интеллект (AI) превзойти человеческих авторов, становятся всё громче. AI обеспечивает скорость и экономию средств, но люди пред
AI Idols Революционизируют Развлечения с Виртуальными Выступлениями Ландшафт развлечений трансформируется с появлением AI идолов, виртуальных исполнителей, работающих на основе искусственного интеллекта. Эти цифровые звезды захватывают внимание мировой аудитории благо
Повышение точности извлечения электронных адресов с помощью ИИ: раскрыты лучшие стратегии Использование ИИ для извлечения электронных адресов из разговоров повышает эффективность, но точность остается ключевой проблемой для разработчиков. Это руководство рассматривает проверенные стратегии
AI-Driven Coloring Pages: Create Stunning Designs Easily Discover an innovative AI platform that transforms the creation of captivating coloring pages. Perfect for artists, educators, or enthusiasts, this tool offers an intuitive interface and robust featur
Сравнение модели
Начните сравнение
Вернуться к вершине
OR