Liang Wenfeng - 頂尖 AI 領袖與創新者|個人簡介、里程碑與專案 - xix.ai
選項

發現高質量的人工智能工具

將全球領先的人工智能工具聚集在一起,以幫助提高工作效率

搜索al工具…
首頁
AI 名人
Liang Wenfeng
Liang Wenfeng

Liang Wenfeng

DeepSeek執行長,高飛者共同創辦人
出生年份  1985
國籍  Chinese

重要里程碑

2015年創立High-Flyer

共同創立High-Flyer,一家利用AI進行財務分析的量化對沖基金

2023年創立DeepSeek

創立DeepSeek以開發專注於效率的開源AI模型

2025 DeepSeek-R1 發布

推出 DeepSeek-R1,應用程式下載量超越 ChatGPT,影響全球 AI 市場

AI 產品

O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.

O modelo de inferência Spark X1 lançado pela iFlytek, com base em liderar tarefas matemáticas nacionais, compara o desempenho de tarefas gerais, como inferência, geração de texto e compreensão de linguagem, com a série o da OpenAI e o DeepSeek R1.

A versão mais recente do Deepseek R1.

DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.

O modelo de inferência Spark X1 lançado pela iFlytek, além de liderar tarefas matemáticas domésticas, avalia o desempenho de tarefas gerais como inferência, geração de texto e compreensão linguística contra o OpenAI o1 e o DeepSeek R1.

DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.

O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.

DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.

DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE) caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.

DeepSeek-R1 é um modelo treinado através de aprendizado por reforço em larga escala (RL) sem usar Ajuste Supervisionado Fino (SFT) como etapa inicial. Seu desempenho em tarefas de matemática, codificação e raciocínio é comparável ao do OpenAI-o1.

DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades geral e de codificação das duas versões anteriores.

DeepSeek-V3 alcançou pontuações de avaliação mais altas do que outros modelos de código aberto como Qwen2.5-72B e Llama-3.1-405B, e seu desempenho está à altura dos principais modelos fechados do mundo, como GPT-4o e Claude-3.5-Sonnet.

O DeepSeek-R1 utilizou extensivamente técnicas de aprendizagem por reforço durante a fase de pós-treinamento, aprimorando significativamente os recursos de raciocínio do modelo com apenas uma quantidade mínima de dados anotados. Em tarefas que envolvem matemática, codificação e inferência de linguagem natural, seu desempenho está no mesmo nível da versão oficial do o1 da OpenAI.

DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.

個人簡介

創立DeepSeek,帶領開發DeepSeek-R1和V3等高性價比AI模型,挑戰全球AI產業標準。

回到頂部
OR