DeepSeek-V2-Chat
236B
Modellparametermenge
DeepSeek
Angehörige Organisation
Open Source
Lizenztyp
6. Mai 2024
Freigabezeit
Modelleinführung
DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungen und spart dabei 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
Umfassende Punktzahl
Sprachdialog
Wissensreserve
Argumentationsvereinigung
Mathematische Berechnung
Code schreiben
Befehlsschließend
Nach links und rechts swipen, um mehr anzuzeigen


Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
5.0


Wissensabdeckung
Hat bedeutende kenntnisgebende Flecken, die häufig sachliche Fehler zeigt und veraltete Informationen wiederholt.
6.3


Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
4.1
Modellvergleich
DeepSeek-V2-Chat vs Qwen2.5-7B-Instruct
Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.
DeepSeek-V2-Chat vs Gemini-2.5-Pro-Preview-05-06
Gemini 2.5 Pro ist ein Modell, das von der Google DeepMind-Künstliche-Intelligenz-Forschungsabteilung veröffentlicht wurde und die Versionsnummer Gemini-2.5-Pro-Preview-05-06 verwendet.
DeepSeek-V2-Chat vs GPT-4o-mini-20240718
GPT-4o-mini ist ein API-Modell, das von OpenAI erstellt wurde, wobei die spezifische Versionsnummer gpt-4o-mini-2024-07-18 beträgt.
DeepSeek-V2-Chat vs Doubao-1.5-thinking-pro-250415
Das neue Deep-Thinking-Modell Doubao-1.5 zeigt herausragende Leistungen in professionellen Bereichen wie Mathematik, Programmierung, wissenschaftlichem Argumentieren und allgemeinen Aufgaben wie kreative Schreiben. Es hat auf mehreren renommierten Benchmarktests wie AIME 2024, Codeforces und GPQA das oberste Niveau der Branche erreicht oder ist dicht daran.
Verwandter Modell
DeepSeek-V2-Chat-0628
DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungsmerkmale, spart dabei 42,5 % der Trainingskosten, reduziert das KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
DeepSeek-V2.5
DeepSeek-V2.5 ist eine aktualisierte Version, die DeepSeek-V2-Chat und DeepSeek-Coder-V2-Instruct kombiniert. Das neue Modell integriert die allgemeinen und Codierungsfähigkeiten der beiden vorherigen Versionen.
DeepSeek-V3-0324
DeepSeek-V3 übertrifft in mehreren Evaluierungen andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und entspricht dem Leistungsniveau oberhalb geschlossener Modelle wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat
DeepSeek-V2, ein starkes Mixture-of-Experts (MoE) Sprachmodell, das von DeepSeek vorgestellt wurde, das DeepSeek-V2-Lite ist eine leichte Version davon.
DeepSeek-R1
DeepSeek-R1 ist ein Modell, das durch große Skalen von verstärktem Lernen (RL) trainiert wurde und keine Überwachte Feinabstimmung (SFT) als ersten Schritt verwendet hat. Seine Leistung in Mathematik, Codierung und Deduktionsaufgaben ist mit der von OpenAI-o1 vergleichbar.
Relevante Dokumente
Letzte Gelegenheit, Ihre Marke mit einer TechCrunch Sessions: AI Side Event aufzuwerten
Heute ist Ihre letzte Chance, Ihre Marke im Zentrum der AI-Diskussionen während der TechCrunch Sessions: AI Week zu präsentieren, da die Bewerbungen für die Ausrichtung einer Side Event heute Abend um
TechCrunch Sessions: AI mit einem Gast teilnehmen und bis zum 4. Mai 50% auf deren Ticket sparen
Neugierig auf die Zukunft von AI? Bringen Sie einen Freund mit und tauchen Sie gemeinsam ein!Bis zum 4. Mai können Sie Ihr Early Bird-Ticket für die TechCrunch Sessions: AI ergattern, bis zu 210 $ spa
Anthropic verbessert Claude mit nahtlosen Werkzeugintegrationen und fortschrittlicher Forschung
Anthropic hat neue „Integrationen“ für Claude vorgestellt, die es der KI ermöglichen, direkt mit Ihren bevorzugten Arbeitswerkzeugen verbunden zu werden. Das Unternehmen hat auch eine verbesserte „For
KI-gestütztes UX-Design: Die Zukunft der Nutzererfahrung gestalten
Der Bereich des User Experience (UX) Designs erlebt eine tiefgreifende Transformation, angetrieben durch die rasante Entwicklung Künstlicher Intelligenz (KI). Weit entfernt von einer fernen Vision, is
KI-gestützte Bildung: Revolutionierung des Lernens über alle Klassenstufen hinweg
Künstliche Intelligenz (KI) verändert die Bildung, indem sie innovative Werkzeuge bereitstellt, um Schüler einzubinden und das Lernen individuell anzupassen. Dieser Artikel untersucht, wie Pädagogen K