Qihao Zhu - Top-KI-Führungskräfte & Innovatoren | Profile, Meilensteine & Projekte - xix.ai
Option

Entdecken Sie qualitativ hochwertige KI -Werkzeuge

Bringen Sie die weltweit führenden Tools für künstliche Intelligenz zusammen, um die Arbeitseffizienz zu verbessern

Suche nach Al -Tools…
Heim
KI-Prominente
Qihao Zhu
Qihao Zhu

Qihao Zhu

Forscher, DeepSeek
Geburtsjahr  unbekannt
Nationalität  Chinese

Wichtiger Meilenstein

2023 DeepSeek beigetreten

Forschung zu effizienten KI-Trainingsmethoden begonnen

2023 DeepSeek-Coder Entwicklung

Habe bei der Entwicklung von DeepSeek-Coder geholfen, einem führenden Code-LLM

2024 MoE-Architektur-Implementierung

Beitrag zur Mixture-of-Experts in DeepSeek-V2

KI-Produkt

DeepSeek-V3 превосходит другие модели с открытым исходным кодом, такие как Qwen2.5-72B и Llama-3.1-405B, в различных оценках и соответствует производительности ведущих закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.

Модель вывода Spark X1, выпущенная компанией iFlytek, на основе лидирующих в стране математических задач сравнивает свои показатели в общих задачах, таких как вывод, генерация текста и понимание языка, с серией o от OpenAI и DeepSeek R1.

Последняя версия Deepseek R1.

DeepSeek-V2 — это мощная модель языка типа Mixture-of-Experts (MoE), характеризующаяся экономичностью обучения и эффективностью вывода. Она содержит 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 демонстрирует более высокую производительность, при этом экономя 42,5% затрат на обучение, снижая объем KV-кэша на 93,3% и увеличивая максимальную пропускную способность генерации до 5,76 раз.

Модель вывода Spark X1, выпущенная iFlytek, на основе ведущих отечественных математических задач сравнивает производительность общих задач, таких как вывод, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1.

DeepSeek-V2.5 — это обновленная версия, объединяющая DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные возможности двух предыдущих версий.

DeepSeek-V3 превосходит другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, во множестве оценок и соответствует уровню производительности премиальных закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.

DeepSeek-V2, сильная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite — это лёгкая версия этой модели.

DeepSeek-V2 — мощная модель языка в формате Mixture-of-Experts (MoE), характеризующаяся экономичным обучением и эффективной инференсом. Она состоит из 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 показывает более высокую производительность, при этом экономит 42.5% затрат на обучение, снижает размер KV-кэша на 93.3% и увеличивает максимальную пропускную способность генерации в 5.76 раза.

DeepSeek-R1 - это модель, обученная с использованием масштабируемого усиленного обучения (RL) без применения начального шага тонкой настройки с участием supervision (SFT). Её производительность в математических, программных и логических задачах сравнима с OpenAI-o1.

DeepSeek-V2.5 является обновленной версией, объединяющей DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные способности предыдущих версий.

DeepSeek-V3 показал более высокие баллы оценки по сравнению с другими открытими моделями, такими как Qwen2.5-72B и Llama-3.1-405B, при этом его производительность соответствует уровню ведущих закрытых моделей, таких как GPT-4o и Claude-3.5-Sonnet.

В DeepSeek-R1 широко используются методы обучения с подкреплением на этапе посттренинга, что значительно расширяет возможности модели в области рассуждений при минимальном количестве аннотированных данных. В задачах, связанных с математикой, кодированием и умозаключениями на естественном языке, ее производительность сравнялась с официальным релизом OpenAI's o1.

DeepSeek-V2, мощная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite - это легкая версия этой модели.

Persönliches Profil

maßgeblicher Mitwirkender an den Code-Modellen von DeepSeek, spezialisiert auf Modelloptimierung und Trainingseffizienz

Zurück nach oben
OR