opção
Lar Setas de navegação Lista de modelos AL Setas de navegação DeepSeek-R1
Modelo Parâmetro Quantidade
671B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
19 de Janeiro de 2025
Tempo de liberação
Introdução ao modelo
DeepSeek-R1 utilizou amplamente técnicas de aprendizado por reforço durante a fase pós-treinamento, melhorando significativamente as capacidades de raciocínio do modelo com uma quantidade mínima de dados anotados. Em tarefas envolvendo matemática, codificação e inferência de linguagem natural, seu desempenho é equivalente ao lançamento oficial da OpenAI o1.
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Capaz de entender contextos complexos e gerar frases logicamente coerentes, embora ocasionalmente desativada no controle de tom.
7.5
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Abrange mais de 200 campos especializados, integrando as últimas descobertas de pesquisa e conhecimento transcultural em tempo real.
9.0
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Pode executar o raciocínio lógico com mais de três etapas, embora a eficiência caia ao lidar com relacionamentos não lineares.
8.5
Modelo relacionado
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.
DeepSeek-V2-Chat DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE) caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
Documentos relevantes
Google Gemini Code Assist aprimora codificação IA com recursos agentes Gemini Code Assist, o assistente de programação com IA do Google, está lançando novos recursos "agentes" em modo de visualização. Na recente conferência Cloud Next, o Google revelo
Microsoft open-source editor de texto CLI no Build Microsoft Aposta Tudo em Open Source no Build 2025Na conferência Build 2025 deste ano, a Microsoft deu grandes passos no mundo open source, lançando várias ferramentas e aplicações
OpenAI aprimora modelo de IA por trás do seu Operator Agent OpenAI Leva o Operator para o Próximo Nível A OpenAI está dando um grande upgrade ao seu agente de IA autônomo, o Operator. As próximas atualizações significam que o Operator pass
O fundo de futuro da IA do Google pode ter que agir com cuidado Novo Iniciativa de Investimento em IA da Google: Uma Mudança Estratégica Diante da Fiscalização RegulatóriaO recente anúncio da Google sobre o Fundo de Futuros em IA marca um movim
Ai YouTube Miniatria Gerador: Aumente suas visualizações de vídeo O poder da IA ​​na miniatura do YouTube criando o cenário digital de hoje, uma miniatura cativante do YouTube é crucial para chamar a atenção dos espectadores. Com milhões de vídeos competindo por cliques, uma miniatura impressionante pode fazer toda a diferença. Os geradores de miniatura do YouTube emergiram como um jogo
Comparação de modelos
Inicie a comparação
De volta ao topo
OR