Kai Dong - Лучшие лидеры и новаторы ИИ | Профили, этапы и проекты - xix.ai
вариант

Откройте для себя качественные инструменты ИИ

Собирайте ведущие в мире инструменты искусственного интеллекта, чтобы помочь повысить эффективность работы

Поиск инструментов AL…
Дом
Знаменитость в ИИ
Kai Dong
Kai Dong

Kai Dong

Исследователь, DeepSeek
Год рождения  неизвестно
Гражданство  Chinese

Важный этап

2023 Присоединился к DeepSeek

Начал работу над фреймворками для обучения ИИ

Выпуск DeepSeek-MoE 2024

Внес вклад в первую модель MoE с открытым исходным кодом

2025 DeepSeek-V3 Обучение

Помог обучить V3 с использованием 14.8T токенов эффективно

Продукт ИИ

DeepSeek-V3 превосходит другие модели с открытым исходным кодом, такие как Qwen2.5-72B и Llama-3.1-405B, в различных оценках и соответствует производительности ведущих закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.

Модель вывода Spark X1, выпущенная компанией iFlytek, на основе лидирующих в стране математических задач сравнивает свои показатели в общих задачах, таких как вывод, генерация текста и понимание языка, с серией o от OpenAI и DeepSeek R1.

Последняя версия Deepseek R1.

DeepSeek-V2 — это мощная модель языка типа Mixture-of-Experts (MoE), характеризующаяся экономичностью обучения и эффективностью вывода. Она содержит 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 демонстрирует более высокую производительность, при этом экономя 42,5% затрат на обучение, снижая объем KV-кэша на 93,3% и увеличивая максимальную пропускную способность генерации до 5,76 раз.

Модель вывода Spark X1, выпущенная iFlytek, на основе ведущих отечественных математических задач сравнивает производительность общих задач, таких как вывод, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1.

DeepSeek-V2.5 — это обновленная версия, объединяющая DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные возможности двух предыдущих версий.

DeepSeek-V3 превосходит другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, во множестве оценок и соответствует уровню производительности премиальных закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.

DeepSeek-V2, сильная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite — это лёгкая версия этой модели.

DeepSeek-V2 — мощная модель языка в формате Mixture-of-Experts (MoE), характеризующаяся экономичным обучением и эффективной инференсом. Она состоит из 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 показывает более высокую производительность, при этом экономит 42.5% затрат на обучение, снижает размер KV-кэша на 93.3% и увеличивает максимальную пропускную способность генерации в 5.76 раза.

DeepSeek-R1 - это модель, обученная с использованием масштабируемого усиленного обучения (RL) без применения начального шага тонкой настройки с участием supervision (SFT). Её производительность в математических, программных и логических задачах сравнима с OpenAI-o1.

DeepSeek-V2.5 является обновленной версией, объединяющей DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные способности предыдущих версий.

DeepSeek-V3 показал более высокие баллы оценки по сравнению с другими открытими моделями, такими как Qwen2.5-72B и Llama-3.1-405B, при этом его производительность соответствует уровню ведущих закрытых моделей, таких как GPT-4o и Claude-3.5-Sonnet.

В DeepSeek-R1 широко используются методы обучения с подкреплением на этапе посттренинга, что значительно расширяет возможности модели в области рассуждений при минимальном количестве аннотированных данных. В задачах, связанных с математикой, кодированием и умозаключениями на естественном языке, ее производительность сравнялась с официальным релизом OpenAI's o1.

DeepSeek-V2, мощная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite - это легкая версия этой модели.

Личный профиль

Внёс вклад в разработку фреймворков обучения моделей DeepSeek, обеспечив экономичное развитие ИИ в крупном масштабе.

Вернуться к вершине
OR