Option
Heim
Liste der Al -Modelle
DeepSeek-V2-Chat-0628
Modellparametermenge
236B
Modellparametermenge
Angehörige Organisation
DeepSeek
Angehörige Organisation
Open Source
Lizenztyp
Freigabezeit
6. Mai 2024
Freigabezeit

Modelleinführung
DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungsmerkmale, spart dabei 42,5 % der Trainingskosten, reduziert das KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
4.6
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Besitzt Kernwissen über Mainstream-Disziplinen, hat jedoch nur eine begrenzte Abdeckung der modernen interdisziplinären Bereiche.
7.8
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
4.7
Verwandter Modell
DeepSeek-V3-0324 DeepSeek-V3 übertrifft andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B in mehreren Bewertungen und erreicht die Leistung von erstklassigen Closed-Source-Modellen wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-R1-0528 Die neueste Version von Deepseek R1.
DeepSeek-V2.5 DeepSeek-V2.5 ist eine aktualisierte Version, die DeepSeek-V2-Chat und DeepSeek-Coder-V2-Instruct kombiniert. Das neue Modell integriert die allgemeinen und Codierungsfähigkeiten der beiden vorherigen Versionen.
DeepSeek-V3-0324 DeepSeek-V3 übertrifft in mehreren Evaluierungen andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und entspricht dem Leistungsniveau oberhalb geschlossener Modelle wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, ein starkes Mixture-of-Experts (MoE) Sprachmodell, das von DeepSeek vorgestellt wurde, das DeepSeek-V2-Lite ist eine leichte Version davon.
Relevante Dokumente
Conceptual Graphs Explained: AI-Leitfaden mit einfachen Beispielen Konzeptgraphen haben sich in der künstlichen Intelligenz als grundlegender Rahmen für die Wissensdarstellung herauskristallisiert. Sie bieten eine visuell intuitive und dennoch mathematisch strenge Mö
FlexClip AI Video Translator vereinfacht die Erstellung mehrsprachiger Videos In unserer zunehmend vernetzten digitalen Landschaft überschreiten Videoinhalte heute mühelos internationale Grenzen. Der KI-Videoübersetzer von FlexClip überwindet Sprachbarrieren und ermöglicht es K
KI-gestütztes Upwork-Angebotsschreiben meistern: Ihr vollständiger Leitfaden zum Erfolg In der zunehmend wettbewerbsintensiven Landschaft der Freiberufler ist die Differenzierung der Schlüssel zum Erfolg. Dieser umfassende Leitfaden zeigt Ihnen, wie künstliche Intelligenz Ihre Herangehen
Google Search erweitert den Smarter AI-Modus weltweit Google bringt seine KI-gestützte Suchfunktion in 180 weitere Länder und erweitert damit die ursprüngliche Einführung in den USA, Großbritannien und Indien erheblich. Diese globale Erweiterung, die der
Schritt-für-Schritt-Anleitung zur Erstellung von Amazon-Malbüchern mit Leonardo AI Träumen Sie davon, in den florierenden Buchmarkt von Amazon einzusteigen? Malbücher bieten eine fantastische passive Einkommensmöglichkeit, aber es kann schwierig sein, unverwechselbare Kunstwerke zu
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR