Modelleinführung
                        
                          Die Llama 3.2 3B-Modelle unterstützen eine Kontextlänge von 128K Tokens und sind in ihrer Klasse für lokal ausführende Anwendungsfälle wie Zusammenfassungen, Anweisungsnachfolge und Umformulierungsaufgaben am Edge-Leisten.                        
                     
                 
                
                    
                        
                        Sprachverständnisfähigkeit
                        
                          Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.                        
                         3.3
                     
                    
                        
                        Wissensabdeckung
                        
                           Hat bedeutende kenntnisgebende Flecken, die häufig sachliche Fehler zeigt und veraltete Informationen wiederholt.                        
                        5.0
                     
                    
                        
                        Argumentationsfähigkeit
                        
                           Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.                        
                        2.7