opção
Lar
Lista de modelos AL
DeepSeek-V3
Modelo Parâmetro Quantidade
671B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
26 de Dezembro de 2024
Tempo de liberação

Introdução ao modelo
DeepSeek-V3 alcançou pontuações de avaliação mais altas do que outros modelos de código aberto como Qwen2.5-72B e Llama-3.1-405B, e seu desempenho está à altura dos principais modelos fechados do mundo, como GPT-4o e Claude-3.5-Sonnet.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
6.8
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui conhecimento central das disciplinas convencionais, mas tem cobertura limitada de campos interdisciplinares de ponta.
8.8
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
6.7
Modelo relacionado
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.
DeepSeek-R1-0528 A versão mais recente do Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
Documentos relevantes
DeepSeek-V3 Revelado: Como o Design de IA Consciente de Hardware Reduz Custos e Aumenta o Desempenho DeepSeek-V3: Um Avanço Eficiente em Custos no Desenvolvimento de IAA indústria de IA está em uma encruzilhada. Enquanto modelos de linguagem de grande escala (LLMs) se tornam mais poderosos, suas dema
Revolução no dimensionamento de anúncios com IA: Aumentar a criatividade em 10 vezes em 2025 O cenário da publicidade digital continua sua rápida evolução, tornando a inovação imprescindível para o sucesso competitivo. À medida que nos aproximamos de 2025, a fusão da inteligência artificial e
Sistemas de recrutamento com IA expõem preconceitos ocultos que afetam as decisões de contratação Os vieses ocultos no recrutamento por IA: Como lidar com a discriminação sistêmica nos algoritmos de contrataçãoIntroduçãoAs ferramentas de contratação baseadas em IA prometem transformar o recrutamen
Platôs de adoção de IA corporativa, revelam dados da Ramp Adoção de IA corporativa atinge um platôEmbora as empresas inicialmente tenham se apressado para implementar soluções de inteligência artificial, o entusiasmo parece estar se estabilizando à medida qu
Desafio Pokemon FireRed Kaizo IronMon: regras essenciais e estratégias de vitória O desafio Pokemon FireRed Kaizo IronMon é um dos maiores testes de habilidade dos jogos - um desafio brutal que quebra as estratégias convencionais de Pokemon e força os jogadores a repensar cada deci
Comparação de modelos
Inicie a comparação
De volta ao topo
OR