opção
Lar
Lista de modelos AL
DeepSeek-V2-Chat-0628
Modelo Parâmetro Quantidade
236B
Modelo Parâmetro Quantidade
Organização afiliada
DeepSeek
Organização afiliada
Código aberto
Tipo de licença
Tempo de liberação
6 de Maio de 2024
Tempo de liberação
Introdução ao modelo
DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
4.6
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui conhecimento central das disciplinas convencionais, mas tem cobertura limitada de campos interdisciplinares de ponta.
7.8
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
4.7
Modelo relacionado
DeepSeek-V2.5 DeepSeek-V2.5 é uma versão atualizada que combina DeepSeek-V2-Chat e DeepSeek-Coder-V2-Instruct. O novo modelo integra as capacidades gerais e de codificação das duas versões anteriores.
DeepSeek-V3-0324 O DeepSeek-V3 supera outros modelos open source como o Qwen2.5-72B e o Llama-3.1-405B em várias avaliações e corresponde ao desempenho dos principais modelos fechados como o GPT-4 e o Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, um forte modelo de linguagem Mixture-of-Experts (MoE) apresentado pela DeepSeek, o DeepSeek-V2-Lite é uma versão leve dele.
DeepSeek-V2-Chat DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE) caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
DeepSeek-R1 DeepSeek-R1 é um modelo treinado através de aprendizado por reforço em larga escala (RL) sem usar Ajuste Supervisionado Fino (SFT) como etapa inicial. Seu desempenho em tarefas de matemática, codificação e raciocínio é comparável ao do OpenAI-o1.
Documentos relevantes
Educação Alimentada por IA: Revolucionando o Aprendizado em Todos os Níveis A inteligência artificial (IA) está transformando a educação ao oferecer ferramentas inovadoras para engajar alunos e personalizar o aprendizado. Este artigo examina como educadores podem utilizar a I
AI vs. Escritores Humanos: Podem as Máquinas Superar a Criatividade? Em uma era orientada por conteúdo, o debate sobre se a inteligência artificial (AI) pode superar os escritores humanos ganha força. A AI oferece velocidade e economia de custos, mas os humanos proporc
Ídolos de IA Revolucionam o Entretenimento com Performances Virtuais O cenário do entretenimento está se transformando com o surgimento de ídolos de IA, artistas virtuais impulsionados por inteligência artificial. Essas estrelas digitais cativam audiências globais por
Aumentar a Precisão da Extração de E-mails por IA: Principais Estratégias Reveladas Aproveitar a IA para extrair endereços de e-mail de conversas aumenta a eficiência, mas a precisão permanece um desafio chave para os desenvolvedores. Este guia explora estratégias comprovadas para me
Páginas de Colorir Impulsionadas por IA: Crie Designs Deslumbrantes com Facilidade Descubra uma plataforma de IA inovadora que transforma a criação de páginas de colorir cativantes. Perfeita para artistas, educadores ou entusiastas, esta ferramenta oferece uma interface intuitiva e
Comparação de modelos
Inicie a comparação
De volta ao topo
OR