opção
Modelo Parâmetro Quantidade
N/A
Modelo Parâmetro Quantidade
Organização afiliada
Qihoo 360
Organização afiliada
Código fechado
Tipo de licença
Tempo de liberação
9 de Abril de 2024
Tempo de liberação
Introdução ao modelo
360GPT é um modelo de API produzido pela Qihoo 360, com o número de versão sendo 360gpt-pro.
Deslize para a esquerda e para a direita para ver mais
Capacidade de compreensão de idiomas Capacidade de compreensão de idiomas
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
4.9
Escopo de cobertura do conhecimento Escopo de cobertura do conhecimento
Escopo de cobertura do conhecimento
Possui pontos cegos significativos, geralmente mostrando erros factuais e repetindo informações desatualizadas.
6.4
Capacidade de raciocínio Capacidade de raciocínio
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
3.6
Modelo relacionado
Qwen2.5-7B-Instruct Assim como o Qwen2, os modelos de linguagem Qwen2.5 suportam até 128K tokens e podem gerar até 8K tokens. Eles também mantêm suporte multilíngue para mais de 29 idiomas, incluindo chinês, inglês, francês, espanhol, português, alemão, italiano, russo, japonês, coreano, vietnamita, tailandês, árabe e muito mais.
GPT-4o-mini-20240718 GPT-4o-mini é um modelo de API produzido pela OpenAI, com o número de versão específico sendo gpt-4o-mini-2024-07-18.
GPT-4o-mini-20240718 GPT-4o-mini é um modelo de API produzido pela OpenAI, com o número de versão específico sendo gpt-4o-mini-2024-07-18.
Gemini-2.5-Pro-Preview-05-06 Gemini 2.5 Pro é um modelo lançado pela equipe de pesquisa em inteligência artificial Google DeepMind, utilizando o número de versão Gemini-2.5-Pro-Preview-05-06.
DeepSeek-V2-Chat-0628 DeepSeek-V2 é um forte modelo de linguagem Mixture-of-Experts (MoE), caracterizado por treinamento econômico e inferência eficiente. Ele consiste em 236 bilhões de parâmetros no total, dos quais 21 bilhões são ativados para cada token. Em comparação com o DeepSeek 67B, o DeepSeek-V2 apresenta um desempenho superior, economizando 42,5% nos custos de treinamento, reduzindo o cache KV em 93,3% e aumentando a capacidade máxima de geração em 5,76 vezes.
Documentos relevantes
Revolução no dimensionamento de anúncios com IA: Aumentar a criatividade em 10 vezes em 2025 O cenário da publicidade digital continua sua rápida evolução, tornando a inovação imprescindível para o sucesso competitivo. À medida que nos aproximamos de 2025, a fusão da inteligência artificial e
Sistemas de recrutamento com IA expõem preconceitos ocultos que afetam as decisões de contratação Os vieses ocultos no recrutamento por IA: Como lidar com a discriminação sistêmica nos algoritmos de contrataçãoIntroduçãoAs ferramentas de contratação baseadas em IA prometem transformar o recrutamen
Platôs de adoção de IA corporativa, revelam dados da Ramp Adoção de IA corporativa atinge um platôEmbora as empresas inicialmente tenham se apressado para implementar soluções de inteligência artificial, o entusiasmo parece estar se estabilizando à medida qu
Desafio Pokemon FireRed Kaizo IronMon: regras essenciais e estratégias de vitória O desafio Pokemon FireRed Kaizo IronMon é um dos maiores testes de habilidade dos jogos - um desafio brutal que quebra as estratégias convencionais de Pokemon e força os jogadores a repensar cada deci
Ferramentas de gerenciamento de tarefas orientadas por IA maximizam a produtividade e a eficiência O futuro da produtividade: Gerenciamento de tarefas com tecnologia de IAEm nosso cenário digital em constante aceleração, o gerenciamento eficaz de tarefas tornou-se essencial para o sucesso profissio
Comparação de modelos
Inicie a comparação
De volta ao topo
OR