opção
Lar
Lista de modelos AL
DeepSeek-V2-Lite-Chat
Modelo Parâmetro Quantidade
16B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
15 de Maio de 2024
Tempo de liberação

Introdução ao modelo
DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
3.1
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
4.1
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
2.8
Modelo relacionado
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.
DeepSeek-R1-0528 A versão mais recente do Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
Documentos relevantes
Google apresenta ferramentas com tecnologia de IA para Gmail, Docs e Vids Google revela atualizações do Workspace com IA na I/O 2025Durante sua conferência anual para desenvolvedores, o Google apresentou aprimoramentos transformadores de IA para seu pacote Workspace, mudand
AWS lança o Bedrock AgentCore: Plataforma de código aberto para desenvolvimento de agentes de IA corporativos Aqui está o conteúdo HTML reescrito:AWS lança o Bedrock AgentCore para agentes de IA empresariais A Amazon Web Services (AWS) está apostando alto nos agentes de IA que transformam as operações de negó
O gravador de voz com IA Akaluli aumenta a produtividade e o foco de forma eficiente Em nossos ambientes de trabalho hiperconectados, manter o foco durante conversas cruciais tem se tornado cada vez mais desafiador. O Akaluli AI Voice Recorder apresenta uma solução inovadora para esse
Spotify aumenta os custos da assinatura Premium em mercados fora dos EUA O Spotify está implementando aumentos nos preços das assinaturas em vários mercados internacionais, apenas alguns dias depois de apresentar um desempenho financeiro abaixo do esperado. A gigante do st
Cairn RPG: sistema de mesa fácil de aprender para novos jogadores Quer uma porta de entrada empolgante para os RPGs de mesa que não sobrecarregue os novatos? Imagine-se organizando uma aventura inteira com dez jogadores completamente iniciantes em apenas quinze minu
Comparação de modelos
Inicie a comparação
De volta ao topo
OR