Introdução ao modelo
MiniMax-Text-01 é um modelo de 456 bilhões de parâmetros combinando Attenção Rápida, Attenção Softmax e Mistura de Especialistas (MoE). Ele utiliza estratégias de paralelismo avançadas para alcançar um contexto de treinamento de 1 milhão de tokens e pode lidar até 4 milhões de tokens durante a inferência, demonstrando um desempenho de primeira linha.
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
6.8
Escopo de cobertura do conhecimento
Possui conhecimento central das disciplinas convencionais, mas tem cobertura limitada de campos interdisciplinares de ponta.
8.5
Capacidade de raciocínio
Incapaz de manter cadeias de raciocínio coerentes, geralmente causando causalidade invertida ou erros de cálculo.
5.8