opção
Lar
Lista de modelos AL
DeepSeek-R1-0528
Modelo Parâmetro Quantidade
671B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
28 de Maio de 2025
Tempo de liberação

Introdução ao modelo
A versão mais recente do Deepseek R1.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Capaz de entender contextos complexos e gerar frases logicamente coerentes, embora ocasionalmente desativada no controle de tom.
8.4
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui conhecimento central das disciplinas convencionais, mas tem cobertura limitada de campos interdisciplinares de ponta.
8.9
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Lida bem com a aritmética básica e a lógica simples questiona bem, mas luta com problemas abstratos.
6.0
Modelo relacionado
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.
Documentos relevantes
Senado dos EUA retira moratória de IA do projeto de lei orçamentária em meio a controvérsias Senado revoga por esmagadora maioria a moratória da regulamentação da IAEm uma rara demonstração de unidade bipartidária, os legisladores dos EUA votaram quase por unanimidade na terça-feira para el
Por que a IA falhou em 2025 com as enchentes no Texas: Lições críticas de resposta a desastres Aqui está a versão reescrita:The Texas Floods of 2025: Um chamado para despertarEm julho de 2025, o Texas enfrentou uma inundação catastrófica que revelou lacunas críticas na preparação para desastres
Última chance de conseguir ingressos com desconto para o TechCrunch Sessions: Evento de IA amanhã Esta não é apenas mais uma conferência de tecnologia - o Zellerbach Hall da UC Berkeley está prestes a sediar o encontro de IA mais importante do ano. Quando essas portas se abrirem amanhã, você vai q
Guia de automação de boletins informativos com IA: Simplifique seu fluxo de trabalho com facilidade Aqui está a minha reescrita do conteúdo HTML, mantendo rigorosamente todas as tags e a estrutura originais:Pontos-chave Implementar um fluxo de trabalho automatizado de boletins informativos usando as
Escapadas na praia do Havaí: Novos vínculos e reviravoltas surpreendentes Imagine-se em uma praia imaculada do Havaí, com a luz do sol aquecendo sua pele e as ondas criando um ritmo relaxante. Para Josh, essa visão se tornou realidade após anos de dedicação. O que começa c
Comparação de modelos
Inicie a comparação
De volta ao topo
OR