Introdução ao modelo
MiniMax-Text-01 é um poderoso modelo de linguagem com 456 bilhões de parâmetros no total, dos quais 45,9 bilhões são ativados por token. Para melhorar o aproveitamento das capacidades de contexto longo do modelo, o MiniMax-Text-01 adota uma arquitetura híbrida que combina Lightning Attention, Softmax Attention e Mixture-of-Experts (MoE).
Capacidade de compreensão de idiomas
Muitas vezes, faz mal julgamentos semânticos, levando a óbvias desconexões lógicas nas respostas.
6.4
Escopo de cobertura do conhecimento
Possui conhecimento central das disciplinas convencionais, mas tem cobertura limitada de campos interdisciplinares de ponta.
8.5
Capacidade de raciocínio
Pode executar o raciocínio lógico com mais de três etapas, embora a eficiência caia ao lidar com relacionamentos não lineares.
7.8