Modelleinführung
Die Llama-4-Modelle sind autoregressive Sprachmodelle, die eine Mixture-of-Experts (MoE)-Architektur verwenden und eine frühe Fusion für native Multimodalität integrieren.
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
4.8
Wissensabdeckung
Besitzt Kernwissen über Mainstream-Disziplinen, hat jedoch nur eine begrenzte Abdeckung der modernen interdisziplinären Bereiche.
8.7
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
4.9