Option

Liste der Al -Modelle

Nach links und rechts swipen, um mehr anzuzeigen
Modellname Anbieter Parameter PUNKTZAHL
Veröffentlichungsdatum
VERGLEICHEN
DeepSeek-V3 übertrifft andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B in mehreren Bewertungen und erreicht die Leistung von erstklassigen Closed-Source-Modellen wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek 671B 5.4 24. März 2025
o4-mini im hohen Modus, der eine längere Antwortzeit und stärkere Denkfähigkeit hat.
OpenAI N/A 6.2 16. April 2025
Das neueste von Tencent veröffentlichte Open-Source-MoE-Modell
Tencent 80B 5.1 27. Juni 2025
Das neueste Modell von Moonshot AI mit verbesserten Programmierfähigkeiten und überlegener Leistung bei allgemeinen Agentenaufgaben, basierend auf einer MoE-Architektur.
Moonshot 1000B 5.5 11. Juli 2025
Das Bailing Large Language Model ist ein universelles LLM, das den Prozess der generativen KI-Registrierung abgeschlossen hat und auf Billionen von Token trainiert wurde. Es trägt die Versionsnummer Bailing-Pro-20250225.
Ant Group N/A 4.4 25. Februar 2025
Das von iFlytek veröffentlichte Inferenzmodell Spark X1 orientiert sich bei führenden inländischen mathematischen Aufgaben an der Leistung von allgemeinen Aufgaben wie Inferenz, Textgenerierung und Sprachverständnis im Vergleich zu OpenAI o-Serie und DeepSeek R1.
iFLYTEK N/A 5.4 20. Juli 2025
MiniMax-Text-01 ist ein leistungsstarkes Sprachmodell mit insgesamt 456 Milliarden Parametern, von denen 45,9 Milliarden pro Token aktiviert werden. Um die Langkontextfähigkeiten des Modells besser zu nutzen, verwendet MiniMax-Text-01 eine hybride Architektur, die Lightning Attention, Softmax Attention und Mixture-of-Experts (MoE) kombiniert.
MiniMax 456B 3.8 15. Januar 2025
Die neue GLM-4.5-Modellreihe für logisches Denken, veröffentlicht von GLM.
Zhipu AI 110B 5.6 29. Juli 2025
Das weltweit erste Open-Weight, groß angelegte Hybrid-Attention-Modell, veröffentlicht von Minimax.
MiniMax 456B 5.5 17. Juni 2025
Qwen3 ist die neueste Generation von großen Sprachmodellen der Qwen-Serie und bietet eine umfassende Sammlung von dichten und Mixture-of-Experts (MoE) Modellen.
Alibaba 235B 5.7 22. Juli 2025
Zurück nach oben
OR