opção
Lar Setas de navegação Lista de modelos AL Setas de navegação DeepSeek-V2-Lite-Chat
Modelo Parâmetro Quantidade
16B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
14 de Maio de 2024
Tempo de liberação
Introdução ao modelo
DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
3.8
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
5.3
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
1.9
Modelo relacionado
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
DeepSeek-V2-Chat DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE) caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-R1 DeepSeek-R1 é um modelo treinado através de aprendizado por reforço em larga escala (RL) sem usar Ajuste Supervisionado Fino (SFT) como etapa inicial. Seu desempenho em tarefas de matemática, codificação e raciocínio é comparável ao do OpenAI-o1.
Documentos relevantes
OpenAI aprimora modelo de IA por trás do seu Operator Agent OpenAI Leva o Operator para o Próximo Nível A OpenAI está dando um grande upgrade ao seu agente de IA autônomo, o Operator. As próximas atualizações significam que o Operator pass
O fundo de futuro da IA do Google pode ter que agir com cuidado Novo Iniciativa de Investimento em IA da Google: Uma Mudança Estratégica Diante da Fiscalização RegulatóriaO recente anúncio da Google sobre o Fundo de Futuros em IA marca um movim
Ai YouTube Miniatria Gerador: Aumente suas visualizações de vídeo O poder da IA ​​na miniatura do YouTube criando o cenário digital de hoje, uma miniatura cativante do YouTube é crucial para chamar a atenção dos espectadores. Com milhões de vídeos competindo por cliques, uma miniatura impressionante pode fazer toda a diferença. Os geradores de miniatura do YouTube emergiram como um jogo
Apps de viagem da IA: seu guia para planejar a viagem inteligente em 2025 Planejando uma viagem em 2025? Se você ainda não o fez, você provavelmente já ouviu falar sobre as maneiras incríveis de inteligência artificial (IA) está remodelando a indústria de viagens. Os aplicativos de viagem de IA estão se tornando a norma, prometendo simplificar e aprimorar todos os aspectos de sua jornada. Mas como esses aplicativos realmente funcionam, e
Guia Passo a Passo para Criar Seu Próprio Chatbot de IA Personalizado com Coze No mundo acelerado de hoje, criar o seu próprio chatbot pode parecer desafiador. No entanto, graças a plataformas como Coze, esta tarefa antes complexa tornou-se surpreendentemente
Comparação de modelos
Inicie a comparação
De volta ao topo
OR