opção
Lar
Lista de modelos AL
DeepSeek-R1
Modelo Parâmetro Quantidade
671B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
20 de Janeiro de 2025
Tempo de liberação

Introdução ao modelo
DeepSeek-R1 é um modelo treinado através de aprendizado por reforço em larga escala (RL) sem usar Ajuste Supervisionado Fino (SFT) como etapa inicial. Seu desempenho em tarefas de matemática, codificação e raciocínio é comparável ao do OpenAI-o1.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Capaz de entender contextos complexos e gerar frases logicamente coerentes, embora ocasionalmente desativada no controle de tom.
7.8
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui conhecimento central das disciplinas convencionais, mas tem cobertura limitada de campos interdisciplinares de ponta.
8.9
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Capaz de criar estruturas lógicas de vários níveis, atingindo mais de 99% de precisão na modelagem matemática complexa.
9.1
Modelo relacionado
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.
DeepSeek-R1-0528 A versão mais recente do Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
Documentos relevantes
Os relógios clássicos da Casio recebem atualizações modernas: Bluetooth, rastreamento de passos e jogos O lendário relógio digital Casio F-91W, inalterado desde sua estreia em 1989, está finalmente recebendo recursos inteligentes modernos - embora, surpreendentemente, não da própria Casio. Entre no Olle
Chatbot do Google Gemini ganha recursos aprimorados de análise de projetos do GitHub Gemini Advanced integra conectividade com o GitHubOs assinantes premium do Gemini Advanced do Google (US$ 20/mês) agora podem vincular diretamente os repositórios do GitHub ao assistente de IA a parti
A IA transforma os jogos com avanços em diplomacia, Meta IA e aprendizado por reforço O cenário dos jogos está passando por uma profunda transformação por meio da inteligência artificial, revolucionando tudo, desde a jogabilidade estratégica até as experiências digitais imersivas. Em v
Proton revela chatbot de IA centrado na privacidade em meio às crescentes preocupações com dados A Proton, conhecida por seu serviço seguro Proton Mail, apresentou o Lumo - um assistente de IA inovador projetado com privacidade em seu núcleo. A nova oferta fornece resumo de documentos, geração de
A IA Gemini do Google revela o recurso de conversão de foto em vídeo A mais recente atualização do Gemini do Google apresenta a inovadora conversão de foto em vídeo com o modelo Veo 3. Esse recurso inovador transforma imagens estáticas em videoclipes de oito segundos a
Comparação de modelos
Inicie a comparação
De volta ao topo
OR