Modelleinführung
Mixtral 8x22B ist ein spärliches Mixture-of-Experts (SMoE)-Modell, das lediglich 39 Milliarden aktive Parameter aus einem Gesamtumfang von 141 Milliarden verwendet und damit eine einmalige Kostenwirksamkeit für seine Größe bietet.
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
4.1
Wissensabdeckung
Hat eine grundlegende enzyklopädische Wissensbasis, fehlt aber Tiefe und leidet an veralteten Informationen.
6.0
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
3.0