Modellname | Anbieter | Parameter |
PUNKTZAHL |
Veröffentlichungsdatum |
VERGLEICHEN |
---|---|---|---|---|---|
DeepSeek-V3 übertrifft andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B in mehreren Bewertungen und erreicht die Leistung von erstklassigen Closed-Source-Modellen wie GPT-4 und Claude-3.5-Sonnet.
|
DeepSeek | 671B | 5.4 | 24. März 2025 | |
o4-mini im hohen Modus, der eine längere Antwortzeit und stärkere Denkfähigkeit hat.
|
OpenAI | N/A | 6.2 | 16. April 2025 | |
Das neueste von Tencent veröffentlichte Open-Source-MoE-Modell
|
Tencent | 80B | 5.1 | 27. Juni 2025 | |
Das neueste Modell von Moonshot AI mit verbesserten Programmierfähigkeiten und überlegener Leistung bei allgemeinen Agentenaufgaben, basierend auf einer MoE-Architektur.
|
Moonshot | 1000B | 5.5 | 11. Juli 2025 | |
Das Bailing Large Language Model ist ein universelles LLM, das den Prozess der generativen KI-Registrierung abgeschlossen hat und auf Billionen von Token trainiert wurde. Es trägt die Versionsnummer Bailing-Pro-20250225.
|
Ant Group | N/A | 4.4 | 25. Februar 2025 | |
Das von iFlytek veröffentlichte Inferenzmodell Spark X1 orientiert sich bei führenden inländischen mathematischen Aufgaben an der Leistung von allgemeinen Aufgaben wie Inferenz, Textgenerierung und Sprachverständnis im Vergleich zu OpenAI o-Serie und DeepSeek R1.
|
iFLYTEK | N/A | 5.4 | 20. Juli 2025 | |
MiniMax-Text-01 ist ein leistungsstarkes Sprachmodell mit insgesamt 456 Milliarden Parametern, von denen 45,9 Milliarden pro Token aktiviert werden. Um die Langkontextfähigkeiten des Modells besser zu nutzen, verwendet MiniMax-Text-01 eine hybride Architektur, die Lightning Attention, Softmax Attention und Mixture-of-Experts (MoE) kombiniert.
|
MiniMax | 456B | 3.8 | 15. Januar 2025 | |
Die neue GLM-4.5-Modellreihe für logisches Denken, veröffentlicht von GLM.
|
Zhipu AI | 110B | 5.6 | 29. Juli 2025 | |
Das weltweit erste Open-Weight, groß angelegte Hybrid-Attention-Modell, veröffentlicht von Minimax.
|
MiniMax | 456B | 5.5 | 17. Juni 2025 | |
Qwen3 ist die neueste Generation von großen Sprachmodellen der Qwen-Serie und bietet eine umfassende Sammlung von dichten und Mixture-of-Experts (MoE) Modellen.
|
Alibaba | 235B | 5.7 | 22. Juli 2025 |