Option
Heim
Liste der Al -Modelle
DeepSeek-V2.5
Modellparametermenge
236B
Modellparametermenge
Angehörige Organisation
DeepSeek
Angehörige Organisation
Open Source
Lizenztyp
Freigabezeit
5. September 2024
Freigabezeit

Modelleinführung
DeepSeek-V2.5 ist eine aktualisierte Version, die DeepSeek-V2-Chat und DeepSeek-Coder-V2-Instruct kombiniert. Das neue Modell integriert die allgemeinen und Codierungsfähigkeiten der beiden vorherigen Versionen.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
5.2
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Besitzt Kernwissen über Mainstream-Disziplinen, hat jedoch nur eine begrenzte Abdeckung der modernen interdisziplinären Bereiche.
7.6
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
4.4
Verwandter Modell
DeepSeek-V3-0324 DeepSeek-V3 übertrifft andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B in mehreren Bewertungen und erreicht die Leistung von erstklassigen Closed-Source-Modellen wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-R1-0528 Die neueste Version von Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungsmerkmale, spart dabei 42,5 % der Trainingskosten, reduziert das KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
DeepSeek-V3-0324 DeepSeek-V3 übertrifft in mehreren Evaluierungen andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und entspricht dem Leistungsniveau oberhalb geschlossener Modelle wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, ein starkes Mixture-of-Experts (MoE) Sprachmodell, das von DeepSeek vorgestellt wurde, das DeepSeek-V2-Lite ist eine leichte Version davon.
Relevante Dokumente
Ethische Herausforderungen der KI: Kunst, Kultur und technologischer Fortschritt im Gleichgewicht Künstliche Intelligenz verändert die moderne Gesellschaft grundlegend und wirkt sich auf alle Bereiche aus, von der kreativen Kunst bis hin zur Technologieethik. Diese Untersuchung geht der Frage nach
Kimi K2 von Moonshot AI enthüllt Open-Source-Durchbruch mit Billionen von Parametern Künstliche Intelligenz tritt in eine transformative Ära einKünstliche Intelligenz durchläuft einen Paradigmenwechsel, da Sprachmodelle eine noch nie dagewesene Größe und Komplexität erreichen. Diese f
Google stellt 9 aufregende neue Funktionen in der Home App Soft Launch vor Google Home App erhält wichtige Updates in der Vorschau 2025Google hat seine Home-App mit mehreren bahnbrechenden Funktionen, die derzeit in der öffentlichen Vorschau verfügbar sind, erheblich verbess
Grammarly expandiert zu einer KI-gestützten Produktivitätsplattform Grammarly hat angekündigt, die beliebte E-Mail-Produktivitäts-App Superhuman zu übernehmen, wie es in einer offiziellen Erklärung heißt. Der Schritt passt strategisch zu den bestehenden E-Mail-Optimie
Jony Ives geheimnisvolles OpenAI-Gerät verzichtet angeblich auf Bildschirme Die rätselhafte Zusammenarbeit zwischen OpenAI und dem renommierten Designer Jony Ive entwickelt ein kontextbezogenes Gerät im Taschenformat, das keine Bildschirme enthält und auch nicht die Form eine
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR