opção
Lar
Lista de modelos AL
DeepSeek-R1-0528
Modelo Parâmetro Quantidade
671B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
28 de Maio de 2025
Tempo de liberação

Introdução ao modelo
A versão mais recente do Deepseek R1.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Capaz de entender contextos complexos e gerar frases logicamente coerentes, embora ocasionalmente desativada no controle de tom.
8.4
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui conhecimento central das disciplinas convencionais, mas tem cobertura limitada de campos interdisciplinares de ponta.
8.9
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Lida bem com a aritmética básica e a lógica simples questiona bem, mas luta com problemas abstratos.
6.0
Modelo relacionado
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.
Documentos relevantes
A IA transforma os jogos com avanços em diplomacia, Meta IA e aprendizado por reforço O cenário dos jogos está passando por uma profunda transformação por meio da inteligência artificial, revolucionando tudo, desde a jogabilidade estratégica até as experiências digitais imersivas. Em v
Proton revela chatbot de IA centrado na privacidade em meio às crescentes preocupações com dados A Proton, conhecida por seu serviço seguro Proton Mail, apresentou o Lumo - um assistente de IA inovador projetado com privacidade em seu núcleo. A nova oferta fornece resumo de documentos, geração de
A IA Gemini do Google revela o recurso de conversão de foto em vídeo A mais recente atualização do Gemini do Google apresenta a inovadora conversão de foto em vídeo com o modelo Veo 3. Esse recurso inovador transforma imagens estáticas em videoclipes de oito segundos a
Domínio de vídeo com IA: Elevando o conteúdo viral por meio de técnicas inteligentes de edição No cenário digital atual, o conteúdo de vídeo domina os espaços on-line. No entanto, a simples produção de vídeos não é suficiente; eles devem cativar os espectadores com recursos visuais atraentes e
Análise da IA do Samsung Galaxy: Benefícios na vida real e casos de uso cotidiano O pacote Galaxy AI da Samsung provocou uma empolgação considerável em todo o setor de tecnologia, mas será que ele oferece uma inovação significativa ou simplesmente reempacota os recursos existentes?
Comparação de modelos
Inicie a comparação
De volta ao topo
OR