opção
Lar
Lista de modelos AL
DeepSeek-V2-Chat
Modelo Parâmetro Quantidade
236B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
6 de Maio de 2024
Tempo de liberação
Introdução ao modelo
DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE) caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
5.0
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
6.3
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
4.1
Modelo relacionado
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.
DeepSeek-R1 DeepSeek-R1 é um modelo treinado através de aprendizado por reforço em larga escala (RL) sem usar Ajuste Supervisionado Fino (SFT) como etapa inicial. Seu desempenho em tarefas de matemática, codificação e raciocínio é comparável ao do OpenAI-o1.
Documentos relevantes
Anthropic Melhora Claude com Integrações de Ferramentas Sem Costura e Pesquisa Avançada Anthropic revelou novas 'Integrações' para Claude, permitindo que a IA se conecte diretamente com suas ferramentas de trabalho preferidas. A empresa também introduziu um recurso aprimorado de 'Pesquis
Design de UX com Inteligência Artificial: Moldando o Futuro da Experiência do Usuário O campo do design de Experiência do Usuário (UX) está passando por uma transformação profunda, impulsionada pela rápida evolução da Inteligência Artificial (AI). Longe de ser uma visão distante, a AI
Educação Alimentada por IA: Revolucionando o Aprendizado em Todos os Níveis A inteligência artificial (IA) está transformando a educação ao oferecer ferramentas inovadoras para engajar alunos e personalizar o aprendizado. Este artigo examina como educadores podem utilizar a I
AI vs. Escritores Humanos: Podem as Máquinas Superar a Criatividade? Em uma era orientada por conteúdo, o debate sobre se a inteligência artificial (AI) pode superar os escritores humanos ganha força. A AI oferece velocidade e economia de custos, mas os humanos proporc
Ídolos de IA Revolucionam o Entretenimento com Performances Virtuais O cenário do entretenimento está se transformando com o surgimento de ídolos de IA, artistas virtuais impulsionados por inteligência artificial. Essas estrelas digitais cativam audiências globais por
Comparação de modelos
Inicie a comparação
De volta ao topo
OR