opção
Lar
Lista de modelos AL
DeepSeek-V2-Chat
Modelo Parâmetro Quantidade
236B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
6 de Maio de 2024
Tempo de liberação

Introdução ao modelo
DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE) caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
5.0
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
6.3
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
4.1
Modelo relacionado
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos de código aberto, como Qwen2.5-72B e Llama-3.1-405B, em várias avaliações e corresponde ao desempenho de modelos de código fechado de alto nível, como GPT-4 e Claude-3.5-Sonnet.
DeepSeek-R1-0528 A versão mais recente do Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
Documentos relevantes
Gráficos conceituais explicados: Guia de IA com exemplos simples Os gráficos conceituais surgiram como uma estrutura fundamental de representação do conhecimento na inteligência artificial, oferecendo uma maneira visualmente intuitiva, porém matematicamente rigoros
O FlexClip AI Video Translator simplifica a criação de vídeos multilíngues Em nosso cenário digital cada vez mais conectado, o conteúdo de vídeo agora atravessa fronteiras internacionais sem esforço. O AI Video Translator do FlexClip rompe as barreiras do idioma, capacitando
Domine a redação de propostas do Upwork com IA: Seu guia completo para o sucesso No cenário cada vez mais competitivo dos freelancers, a diferenciação é a chave para o sucesso. Este guia abrangente revela como a inteligência artificial pode revolucionar sua abordagem para elaborar
A Pesquisa Google expande o modo de IA mais inteligente em todo o mundo O Google está levando sua experiência de pesquisa com IA para mais 180 países, expandindo significativamente além de seu lançamento inicial nos EUA, Reino Unido e Índia. Embora atualmente seja apenas
Guia passo a passo para criar livros de colorir da Amazon usando o Leonardo AI Sonhando em entrar no próspero mercado de livros da Amazon? Os livros para colorir oferecem uma fantástica oportunidade de renda passiva, mas pode ser difícil encontrar obras de arte diferenciadas. Es
Comparação de modelos
Inicie a comparação
De volta ao topo
OR