Option
Heim
Liste der Al -Modelle
Qwen-Max-0428
Modellparametermenge
N/A
Modellparametermenge
Angehörige Organisation
Alibaba
Angehörige Organisation
Quellcode geschlossen
Lizenztyp
Freigabezeit
28. April 2024
Freigabezeit

Modelleinführung
Qwen-Max ist ein API-Modell, das von Alibaba hergestellt wurde. Dies ist Version 0428.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
5.6
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Besitzt Kernwissen über Mainstream-Disziplinen, hat jedoch nur eine begrenzte Abdeckung der modernen interdisziplinären Bereiche.
7.9
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
4.7
Verwandter Modell
Qwen3-235B-A22B-Instruct-2507 Qwen3 ist die neueste Generation von großen Sprachmodellen der Qwen-Serie und bietet eine umfassende Sammlung von dichten und Mixture-of-Experts (MoE) Modellen.
Qwen3-235B-A22B-Thinking-2507 Qwen3 ist die neueste Generation von Large Language Models in der Qwen-Serie und bietet eine umfassende Suite aus dichten und Mixture-of-Experts (MoE)-Modellen.
Qwen2.5-7B-Instruct Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.
Qwen3-32B (Thinking) Qwen3 ist die neueste Generation großer Sprachmodelle der Qwen-Reihe und bietet eine umfassende Suite aus dichten und Mixture-of-Experts (MoE)-Modellen.
Qwen1.5-72B-Chat Qwen1.5 ist die Beta-Version von Qwen2 und behält die Architektur eines decoder-only Transformer-Modells mit SwiGLU-Aktivierung, RoPE und mehrköpfigen Aufmerksamkeitsmechanismen bei. Es bietet neun Modellgrößen und hat verbesserte Mehrsprachigkeits- und Chatmodell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiel aktiviert, und der Code unterstützt die native Implementierung in Transformers.
Relevante Dokumente
Google stellt KI-gestützte Tools für Gmail, Docs und Vids vor Google stellt KI-gestützte Workspace-Updates auf der I/O 2025 vorWährend seiner jährlichen Entwicklerkonferenz hat Google transformative KI-Verbesserungen für seine Workspace-Suite vorgestellt, die di
AWS bringt Bedrock AgentCore auf den Markt: Open-Source-Plattform für die Entwicklung von KI-Agenten für Unternehmen Hier ist der umgeschriebene HTML-Inhalt:AWS führt Bedrock AgentCore für KI-Agenten in Unternehmen ein Amazon Web Services (AWS) setzt voll auf KI-Agenten, die den Geschäftsbetrieb verändern, und stell
Akaluli AI Voice Recorder steigert die Produktivität und den Fokus effizienter In unseren hypervernetzten Arbeitsumgebungen wird es immer schwieriger, sich bei wichtigen Gesprächen zu konzentrieren. Der Akaluli AI Voice Recorder bietet eine innovative Lösung für dieses moderne D
Spotify erhöht Premium-Abonnementkosten in Märkten außerhalb der USA Spotify führt nur wenige Tage nach der Bekanntgabe seiner enttäuschenden Finanzergebnisse Preiserhöhungen für Abonnements in mehreren internationalen Märkten ein. Der Streaming-Riese bestätigte am Mon
Cairn RPG: Leicht zu erlernendes Tabletop-System für neue Spieler Sie wollen einen spannenden Einstieg in Tabletop-Rollenspiele, der Neulinge nicht überfordert? Stellen Sie sich vor, Sie organisieren mit zehn Anfängern in nur fünfzehn Minuten ein komplettes Abenteue
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR