Qihao Zhu - 顶尖 AI 领袖与创新者 | 个人简介、重要里程碑与项目 - xix.ai
选项

发现高质量的人工智能工具

将全球领先的人工智能工具聚集在一起,以帮助提高工作效率

Search for Al tools…
首页
AI 名人
Qihao Zhu
Qihao Zhu

Qihao Zhu

研究员,DeepSeek
出生年份  未知
国籍  Chinese

重要里程碑

2023 加入 DeepSeek

开始研究高效的 AI 训练方法

2023 DeepSeek-Coder 开发

帮助开发了DeepSeek-Coder,一个领先的代码大语言模型

2024 MoE架构实现

为DeepSeek-V2的混合专家模型做出了贡献

人工智能产品

DeepSeek-V3 превосходит другие модели с открытым исходным кодом, такие как Qwen2.5-72B и Llama-3.1-405B, в различных оценках и соответствует производительности ведущих закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.

Модель вывода Spark X1, выпущенная компанией iFlytek, на основе лидирующих в стране математических задач сравнивает свои показатели в общих задачах, таких как вывод, генерация текста и понимание языка, с серией o от OpenAI и DeepSeek R1.

Последняя версия Deepseek R1.

DeepSeek-V2 — это мощная модель языка типа Mixture-of-Experts (MoE), характеризующаяся экономичностью обучения и эффективностью вывода. Она содержит 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 демонстрирует более высокую производительность, при этом экономя 42,5% затрат на обучение, снижая объем KV-кэша на 93,3% и увеличивая максимальную пропускную способность генерации до 5,76 раз.

Модель вывода Spark X1, выпущенная iFlytek, на основе ведущих отечественных математических задач сравнивает производительность общих задач, таких как вывод, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1.

DeepSeek-V2.5 — это обновленная версия, объединяющая DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные возможности двух предыдущих версий.

DeepSeek-V3 превосходит другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, во множестве оценок и соответствует уровню производительности премиальных закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.

DeepSeek-V2, сильная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite — это лёгкая версия этой модели.

DeepSeek-V2 — мощная модель языка в формате Mixture-of-Experts (MoE), характеризующаяся экономичным обучением и эффективной инференсом. Она состоит из 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 показывает более высокую производительность, при этом экономит 42.5% затрат на обучение, снижает размер KV-кэша на 93.3% и увеличивает максимальную пропускную способность генерации в 5.76 раза.

DeepSeek-R1 - это модель, обученная с использованием масштабируемого усиленного обучения (RL) без применения начального шага тонкой настройки с участием supervision (SFT). Её производительность в математических, программных и логических задачах сравнима с OpenAI-o1.

DeepSeek-V2.5 является обновленной версией, объединяющей DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные способности предыдущих версий.

DeepSeek-V3 показал более высокие баллы оценки по сравнению с другими открытими моделями, такими как Qwen2.5-72B и Llama-3.1-405B, при этом его производительность соответствует уровню ведущих закрытых моделей, таких как GPT-4o и Claude-3.5-Sonnet.

В DeepSeek-R1 широко используются методы обучения с подкреплением на этапе посттренинга, что значительно расширяет возможности модели в области рассуждений при минимальном количестве аннотированных данных. В задачах, связанных с математикой, кодированием и умозаключениями на естественном языке, ее производительность сравнялась с официальным релизом OpenAI's o1.

DeepSeek-V2, мощная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite - это легкая версия этой модели.

个人简介

DeepSeek代码模型的关键贡献者,专注于模型优化和训练效率

返回顶部
OR