Modelleinführung
Mixtral 8x22B ist ein spärliches Mixture-of-Experts (SMoE)-Modell, das nur 39 Milliarden aktive Parameter aus einem Gesamtumfang von 141 Milliarden verwendet und damit eine bislang ungeahnte Kostenwirksamkeit für seine Größe bietet.
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
3.3
Wissensabdeckung
Besitzt Kernwissen über Mainstream-Disziplinen, hat jedoch nur eine begrenzte Abdeckung der modernen interdisziplinären Bereiche.
7.2
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
2.8