opção
Lar
Lista de modelos AL
DeepSeek-V2-Lite-Chat
Modelo Parâmetro Quantidade
16B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
15 de Maio de 2024
Tempo de liberação
Introdução ao modelo
DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
3.1
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
4.1
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
2.8
Modelo relacionado
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.
DeepSeek-V2-Chat DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE) caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
Documentos relevantes
Viagem Impulsionada por IA: Planeje Sua Escapada Perfeita com Facilidade Planejar uma viagem pode parecer assustador, com buscas intermináveis e revisões transformando empolgação em estresse. O planejamento de viagens com IA muda isso, tornando o processo tranquilo e agrad
NoteGPT Potenciado por IA Transforma a Experiência de Aprendizado no YouTube No mundo acelerado de hoje, o aprendizado eficaz é essencial. O NoteGPT é uma extensão dinâmica do Chrome que revoluciona a forma como você interage com o conteúdo do YouTube. Aproveitando a IA, ele o
União Comunitária e Google Fazem Parceria para Impulsionar Habilidades de IA para Trabalhadores do Reino Unido Nota do Editor: Google se uniu à União Comunitária no Reino Unido para demonstrar como as habilidades de IA podem aprimorar as capacidades de trabalhadores de escritório e operacionais. Este programa
Magi-1 Revela Tecnologia Revolucionária de Geração de Vídeo por IA de Código Aberto O campo da criação de vídeos alimentada por IA está avançando rapidamente, e o Magi-1 marca um marco transformador. Este modelo inovador de código aberto oferece precisão incomparável no controle de t
Ética em IA: Navegando Riscos e Responsabilidades no Desenvolvimento Tecnológico A inteligência artificial (IA) está reformulando indústrias, da saúde à logística, oferecendo enorme potencial para progresso. No entanto, seu rápido avanço traz riscos significativos que exigem super
Comparação de modelos
Inicie a comparação
De volta ao topo
OR