Introdução ao modelo
Mixtral 8x22B é um modelo Mixture-of-Experts (SMoE) esparsa que utiliza apenas 39 bilhões de parâmetros ativos de um total de 141 bilhões, oferecendo uma eficiência de custo sem igual para seu tamanho.
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
4.1
Escopo de cobertura do conhecimento
Possui uma base básica de conhecimento enciclopédico, mas não tem profundidade e sofre de informações desatualizadas.
6.0
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
3.0