Daya Guo - Top-KI-Führungskräfte & Innovatoren | Profile, Meilensteine & Projekte - xix.ai
Option

Entdecken Sie qualitativ hochwertige KI -Werkzeuge

Bringen Sie die weltweit führenden Tools für künstliche Intelligenz zusammen, um die Arbeitseffizienz zu verbessern

Suche nach Al -Tools…
Heim
KI-Prominente
Daya Guo
Daya Guo

Daya Guo

Forscher, DeepSeek
Geburtsjahr  unbekannt
Nationalität  Chinese

Wichtiger Meilenstein

2023 DeepSeek beigetreten

Forschung an code-fokussierten KI-Modellen bei DeepSeek begonnen

2023 DeepSeek-Coder Veröffentlichung

Mitverfasster DeepSeek-Coder, der bestehende Open-Source-Code-LLMs übertrifft

2024 Fortgeschrittene Forschung zu Codemodellen

Beitrag zu DeepSeek-Coder V2, Verbesserung der Programmierfähigkeiten

KI-Produkt

O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.

O modelo de inferência Spark X1 lançado pela iFlytek, com base em liderar tarefas matemáticas nacionais, compara o desempenho de tarefas gerais, como inferência, geração de texto e compreensão de linguagem, com a série o da OpenAI e o DeepSeek R1.

A versão mais recente do Deepseek R1.

DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.

O modelo de inferência Spark X1 lançado pela iFlytek, além de liderar tarefas matemáticas domésticas, avalia o desempenho de tarefas gerais como inferência, geração de texto e compreensão linguística contra o OpenAI o1 e o DeepSeek R1.

DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.

O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.

DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.

DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE) caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.

DeepSeek-R1 é um modelo treinado através de aprendizado por reforço em larga escala (RL) sem usar Ajuste Supervisionado Fino (SFT) como etapa inicial. Seu desempenho em tarefas de matemática, codificação e raciocínio é comparável ao do OpenAI-o1.

DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades geral e de codificação das duas versões anteriores.

DeepSeek-V3 alcançou pontuações de avaliação mais altas do que outros modelos de código aberto como Qwen2.5-72B e Llama-3.1-405B, e seu desempenho está à altura dos principais modelos fechados do mundo, como GPT-4o e Claude-3.5-Sonnet.

O DeepSeek-R1 utilizou extensivamente técnicas de aprendizagem por reforço durante a fase de pós-treinamento, aprimorando significativamente os recursos de raciocínio do modelo com apenas uma quantidade mínima de dados anotados. Em tarefas que envolvem matemática, codificação e inferência de linguagem natural, seu desempenho está no mesmo nível da versão oficial do o1 da OpenAI.

DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.

Persönliches Profil

Hat zur Entwicklung von DeepSeek-Coder beigetragen, mit Fokus auf Sprachmodelle für Programmieraufgaben mit hoher Leistung.

Zurück nach oben
OR