Option
Modellparametermenge
N/A
Modellparametermenge
Angehörige Organisation
Qihoo 360
Angehörige Organisation
Quellcode geschlossen
Lizenztyp
Freigabezeit
9. April 2024
Freigabezeit
Modelleinführung
360GPT ist ein API-Modell, das von Qihoo 360 produziert wurde, wobei die Versionsnummer 360gpt-pro beträgt.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
4.9
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Hat bedeutende kenntnisgebende Flecken, die häufig sachliche Fehler zeigt und veraltete Informationen wiederholt.
6.4
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
3.6
Verwandter Modell
Qwen2.5-7B-Instruct Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.
GPT-4o-mini-20240718 GPT-4o-mini ist ein API-Modell, das von OpenAI erstellt wurde, mit der spezifischen Versionsnummer gpt-4o-mini-2024-07-18.
GPT-4o-mini-20240718 GPT-4o-mini ist ein API-Modell, das von OpenAI erstellt wurde, wobei die spezifische Versionsnummer gpt-4o-mini-2024-07-18 beträgt.
Gemini-2.5-Pro-Preview-05-06 Gemini 2.5 Pro ist ein Modell, das von der Google DeepMind-Künstliche-Intelligenz-Forschungsabteilung veröffentlicht wurde und die Versionsnummer Gemini-2.5-Pro-Preview-05-06 verwendet.
DeepSeek-V2-Chat-0628 DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungsmerkmale, spart dabei 42,5 % der Trainingskosten, reduziert das KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
Relevante Dokumente
Google stellt KI-gestützte Tools für Gmail, Docs und Vids vor Google stellt KI-gestützte Workspace-Updates auf der I/O 2025 vorWährend seiner jährlichen Entwicklerkonferenz hat Google transformative KI-Verbesserungen für seine Workspace-Suite vorgestellt, die di
AWS bringt Bedrock AgentCore auf den Markt: Open-Source-Plattform für die Entwicklung von KI-Agenten für Unternehmen Hier ist der umgeschriebene HTML-Inhalt:AWS führt Bedrock AgentCore für KI-Agenten in Unternehmen ein Amazon Web Services (AWS) setzt voll auf KI-Agenten, die den Geschäftsbetrieb verändern, und stell
Akaluli AI Voice Recorder steigert die Produktivität und den Fokus effizienter In unseren hypervernetzten Arbeitsumgebungen wird es immer schwieriger, sich bei wichtigen Gesprächen zu konzentrieren. Der Akaluli AI Voice Recorder bietet eine innovative Lösung für dieses moderne D
Spotify erhöht Premium-Abonnementkosten in Märkten außerhalb der USA Spotify führt nur wenige Tage nach der Bekanntgabe seiner enttäuschenden Finanzergebnisse Preiserhöhungen für Abonnements in mehreren internationalen Märkten ein. Der Streaming-Riese bestätigte am Mon
Cairn RPG: Leicht zu erlernendes Tabletop-System für neue Spieler Sie wollen einen spannenden Einstieg in Tabletop-Rollenspiele, der Neulinge nicht überfordert? Stellen Sie sich vor, Sie organisieren mit zehn Anfängern in nur fünfzehn Minuten ein komplettes Abenteue
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR