opção
Lar
Lista de modelos AL
DeepSeek-V3-0324
Modelo Parâmetro Quantidade
671B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
24 de Março de 2025
Tempo de liberação

Introdução ao modelo
O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Capaz de entender contextos complexos e gerar frases logicamente coerentes, embora ocasionalmente desativada no controle de tom.
7.4
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui conhecimento central das disciplinas convencionais, mas tem cobertura limitada de campos interdisciplinares de ponta.
8.7
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Pode executar o raciocínio lógico com mais de três etapas, embora a eficiência caia ao lidar com relacionamentos não lineares.
8.9
Modelo relacionado
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.
DeepSeek-R1-0528 A versão mais recente do Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V2-Lite-Chat DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.
Documentos relevantes
Gráficos conceituais explicados: Guia de IA com exemplos simples Os gráficos conceituais surgiram como uma estrutura fundamental de representação do conhecimento na inteligência artificial, oferecendo uma maneira visualmente intuitiva, porém matematicamente rigoros
O FlexClip AI Video Translator simplifica a criação de vídeos multilíngues Em nosso cenário digital cada vez mais conectado, o conteúdo de vídeo agora atravessa fronteiras internacionais sem esforço. O AI Video Translator do FlexClip rompe as barreiras do idioma, capacitando
Domine a redação de propostas do Upwork com IA: Seu guia completo para o sucesso No cenário cada vez mais competitivo dos freelancers, a diferenciação é a chave para o sucesso. Este guia abrangente revela como a inteligência artificial pode revolucionar sua abordagem para elaborar
A Pesquisa Google expande o modo de IA mais inteligente em todo o mundo O Google está levando sua experiência de pesquisa com IA para mais 180 países, expandindo significativamente além de seu lançamento inicial nos EUA, Reino Unido e Índia. Embora atualmente seja apenas
Guia passo a passo para criar livros de colorir da Amazon usando o Leonardo AI Sonhando em entrar no próspero mercado de livros da Amazon? Os livros para colorir oferecem uma fantástica oportunidade de renda passiva, mas pode ser difícil encontrar obras de arte diferenciadas. Es
Comparação de modelos
Inicie a comparação
De volta ao topo
OR