Liang Wenfeng - Лучшие лидеры и новаторы ИИ | Профили, этапы и проекты - xix.ai
вариант

Откройте для себя качественные инструменты ИИ

Собирайте ведущие в мире инструменты искусственного интеллекта, чтобы помочь повысить эффективность работы

Поиск инструментов AL…
Дом
Знаменитость в ИИ
Liang Wenfeng
Liang Wenfeng

Liang Wenfeng

Генеральный директор, DeepSeek; Сооснователь, High-Flyer
Год рождения  1985
Гражданство  Chinese

Важный этап

2015 Основанный High-Flyer

Совместно основал High-Flyer, количественный хедж-фонд, использующий ИИ для финансового анализа

2023 Основан DeepSeek

Создан DeepSeek для разработки моделей ИИ с открытым исходным кодом с акцентом на эффективность

Выпуск DeepSeek-R1 2025

Запущен DeepSeek-R1, превзошёл ChatGPT по количеству загрузок приложений и повлиял на глобальные рынки ИИ.

Продукт ИИ

DeepSeek-V3 превосходит другие модели с открытым исходным кодом, такие как Qwen2.5-72B и Llama-3.1-405B, в различных оценках и соответствует производительности ведущих закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.

Модель вывода Spark X1, выпущенная компанией iFlytek, на основе лидирующих в стране математических задач сравнивает свои показатели в общих задачах, таких как вывод, генерация текста и понимание языка, с серией o от OpenAI и DeepSeek R1.

Последняя версия Deepseek R1.

DeepSeek-V2 — это мощная модель языка типа Mixture-of-Experts (MoE), характеризующаяся экономичностью обучения и эффективностью вывода. Она содержит 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 демонстрирует более высокую производительность, при этом экономя 42,5% затрат на обучение, снижая объем KV-кэша на 93,3% и увеличивая максимальную пропускную способность генерации до 5,76 раз.

Модель вывода Spark X1, выпущенная iFlytek, на основе ведущих отечественных математических задач сравнивает производительность общих задач, таких как вывод, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1.

DeepSeek-V2.5 — это обновленная версия, объединяющая DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные возможности двух предыдущих версий.

DeepSeek-V3 превосходит другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, во множестве оценок и соответствует уровню производительности премиальных закрытых моделей, таких как GPT-4 и Claude-3.5-Sonnet.

DeepSeek-V2, сильная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite — это лёгкая версия этой модели.

DeepSeek-V2 — мощная модель языка в формате Mixture-of-Experts (MoE), характеризующаяся экономичным обучением и эффективной инференсом. Она состоит из 236 миллиардов общих параметров, из которых 21 миллиард активируется для каждого токена. В сравнении с DeepSeek 67B, DeepSeek-V2 показывает более высокую производительность, при этом экономит 42.5% затрат на обучение, снижает размер KV-кэша на 93.3% и увеличивает максимальную пропускную способность генерации в 5.76 раза.

DeepSeek-R1 - это модель, обученная с использованием масштабируемого усиленного обучения (RL) без применения начального шага тонкой настройки с участием supervision (SFT). Её производительность в математических, программных и логических задачах сравнима с OpenAI-o1.

DeepSeek-V2.5 является обновленной версией, объединяющей DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct. Новая модель интегрирует общие и программные способности предыдущих версий.

DeepSeek-V3 показал более высокие баллы оценки по сравнению с другими открытими моделями, такими как Qwen2.5-72B и Llama-3.1-405B, при этом его производительность соответствует уровню ведущих закрытых моделей, таких как GPT-4o и Claude-3.5-Sonnet.

В DeepSeek-R1 широко используются методы обучения с подкреплением на этапе посттренинга, что значительно расширяет возможности модели в области рассуждений при минимальном количестве аннотированных данных. В задачах, связанных с математикой, кодированием и умозаключениями на естественном языке, ее производительность сравнялась с официальным релизом OpenAI's o1.

DeepSeek-V2, мощная модель языка Mixture-of-Experts (MoE), представленная DeepSeek, DeepSeek-V2-Lite - это легкая версия этой модели.

Личный профиль

Основал DeepSeek, руководит разработкой экономичных моделей ИИ, таких как DeepSeek-R1 и V3, бросая вызов мировым стандартам индустрии ИИ.

Вернуться к вершине
OR