Qihao Zhu - Principais Líderes e Inovadores de IA | Perfis, Marcos e Projetos - xix.ai
opção

Descubra ferramentas de qualidade de qualidade

Reunir as principais ferramentas de inteligência artificial do mundo para ajudar a melhorar a eficiência do trabalho

Procure por ferramentas AL…
Lar
Celebridade de IA
Qihao Zhu
Qihao Zhu

Qihao Zhu

Pesquisador, DeepSeek
Ano de nascimento  desconhecido
Nacionalidade  Chinese

Marco importante

2023 Juntou-se ao DeepSeek

Iniciou pesquisa sobre métodos de treinamento de IA eficientes

Desenvolvimento do DeepSeek-Coder 2023

Ajudou a desenvolver o DeepSeek-Coder, um LLM de código líder

Implementação da Arquitetura MoE 2024

Contribuiu para Mixture-of-Experts em DeepSeek-V2

Produto de IA

O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.

O modelo de inferência Spark X1 lançado pela iFlytek, com base em liderar tarefas matemáticas nacionais, compara o desempenho de tarefas gerais, como inferência, geração de texto e compreensão de linguagem, com a série o da OpenAI e o DeepSeek R1.

A versão mais recente do Deepseek R1.

DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.

O modelo de inferência Spark X1 lançado pela iFlytek, além de liderar tarefas matemáticas domésticas, avalia o desempenho de tarefas gerais como inferência, geração de texto e compreensão linguística contra o OpenAI o1 e o DeepSeek R1.

DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.

O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.

DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.

DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE) caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.

DeepSeek-R1 é um modelo treinado através de aprendizado por reforço em larga escala (RL) sem usar Ajuste Supervisionado Fino (SFT) como etapa inicial. Seu desempenho em tarefas de matemática, codificação e raciocínio é comparável ao do OpenAI-o1.

DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades geral e de codificação das duas versões anteriores.

DeepSeek-V3 alcançou pontuações de avaliação mais altas do que outros modelos de código aberto como Qwen2.5-72B e Llama-3.1-405B, e seu desempenho está à altura dos principais modelos fechados do mundo, como GPT-4o e Claude-3.5-Sonnet.

O DeepSeek-R1 utilizou extensivamente técnicas de aprendizagem por reforço durante a fase de pós-treinamento, aprimorando significativamente os recursos de raciocínio do modelo com apenas uma quantidade mínima de dados anotados. Em tarefas que envolvem matemática, codificação e inferência de linguagem natural, seu desempenho está no mesmo nível da versão oficial do o1 da OpenAI.

DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.

Perfil pessoal

Contribuidor principal nos modelos de código da DeepSeek, especializado em otimização de modelos e eficiência de treinamento

De volta ao topo
OR