Daya Guo - Лучшие лидеры и новаторы ИИ | Профили, этапы и проекты - xix.ai
вариант

Откройте для себя качественные инструменты ИИ

Собирайте ведущие в мире инструменты искусственного интеллекта, чтобы помочь повысить эффективность работы

Поиск инструментов AL…
Дом
Знаменитость в ИИ
Daya Guo
Daya Guo

Daya Guo

Исследователь, DeepSeek
Год рождения  неизвестно
Гражданство  Chinese

Важный этап

2023 Присоединился к DeepSeek

Начал исследования моделей ИИ, ориентированных на код, в DeepSeek

Выпуск DeepSeek-Coder 2023

Соавтор DeepSeek-Coder, превосходящий существующие открытые кодовые LLM

Исследование продвинутой модели кода 2024

Способствовал созданию DeepSeek-Coder V2, улучшая возможности программирования

Продукт ИИ

O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.

O modelo de inferência Spark X1 lançado pela iFlytek, com base em liderar tarefas matemáticas nacionais, compara o desempenho de tarefas gerais, como inferência, geração de texto e compreensão de linguagem, com a série o da OpenAI e o DeepSeek R1.

A versão mais recente do Deepseek R1.

DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.

O modelo de inferência Spark X1 lançado pela iFlytek, além de liderar tarefas matemáticas domésticas, avalia o desempenho de tarefas gerais como inferência, geração de texto e compreensão linguística contra o OpenAI o1 e o DeepSeek R1.

DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.

O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.

DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.

DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE) caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.

DeepSeek-R1 é um modelo treinado através de aprendizado por reforço em larga escala (RL) sem usar Ajuste Supervisionado Fino (SFT) como etapa inicial. Seu desempenho em tarefas de matemática, codificação e raciocínio é comparável ao do OpenAI-o1.

DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades geral e de codificação das duas versões anteriores.

DeepSeek-V3 alcançou pontuações de avaliação mais altas do que outros modelos de código aberto como Qwen2.5-72B e Llama-3.1-405B, e seu desempenho está à altura dos principais modelos fechados do mundo, como GPT-4o e Claude-3.5-Sonnet.

O DeepSeek-R1 utilizou extensivamente técnicas de aprendizagem por reforço durante a fase de pós-treinamento, aprimorando significativamente os recursos de raciocínio do modelo com apenas uma quantidade mínima de dados anotados. Em tarefas que envolvem matemática, codificação e inferência de linguagem natural, seu desempenho está no mesmo nível da versão oficial do o1 da OpenAI.

DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.

Личный профиль

Участвовал в разработке DeepSeek-Coder, сосредоточившись на моделях языкового кода с высокой производительностью в задачах программирования.

Вернуться к вершине
OR