Option
Heim
Liste der Al -Modelle
DeepSeek-V2-Chat-0628
Modellparametermenge
236B
Modellparametermenge
Angehörige Organisation
DeepSeek
Angehörige Organisation
Open Source
Lizenztyp
Freigabezeit
6. Mai 2024
Freigabezeit
Modelleinführung
DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungsmerkmale, spart dabei 42,5 % der Trainingskosten, reduziert das KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
4.6
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Besitzt Kernwissen über Mainstream-Disziplinen, hat jedoch nur eine begrenzte Abdeckung der modernen interdisziplinären Bereiche.
7.8
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
4.7
Verwandter Modell
DeepSeek-V2.5 DeepSeek-V2.5 ist eine aktualisierte Version, die DeepSeek-V2-Chat und DeepSeek-Coder-V2-Instruct kombiniert. Das neue Modell integriert die allgemeinen und Codierungsfähigkeiten der beiden vorherigen Versionen.
DeepSeek-V3-0324 DeepSeek-V3 übertrifft in mehreren Evaluierungen andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und entspricht dem Leistungsniveau oberhalb geschlossener Modelle wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, ein starkes Mixture-of-Experts (MoE) Sprachmodell, das von DeepSeek vorgestellt wurde, das DeepSeek-V2-Lite ist eine leichte Version davon.
DeepSeek-V2-Chat DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungen und spart dabei 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
DeepSeek-R1 DeepSeek-R1 ist ein Modell, das durch große Skalen von verstärktem Lernen (RL) trainiert wurde und keine Überwachte Feinabstimmung (SFT) als ersten Schritt verwendet hat. Seine Leistung in Mathematik, Codierung und Deduktionsaufgaben ist mit der von OpenAI-o1 vergleichbar.
Relevante Dokumente
KI-gestützte Bildung: Revolutionierung des Lernens über alle Klassenstufen hinweg Künstliche Intelligenz (KI) verändert die Bildung, indem sie innovative Werkzeuge bereitstellt, um Schüler einzubinden und das Lernen individuell anzupassen. Dieser Artikel untersucht, wie Pädagogen K
KI vs. menschliche Autoren: Können Maschinen Kreativität übertreffen? In einer von Inhalten geprägten Ära wird die Debatte, ob künstliche Intelligenz (KI) menschliche Autoren übertreffen kann, immer lauter. KI bietet Geschwindigkeit und Kosteneinsparungen, aber Menschen
KI-Idole revolutionieren die Unterhaltung mit virtuellen Auftritten Die Unterhaltungslandschaft verändert sich mit dem Aufstieg von KI-Idolen, virtuellen Performern, die von künstlicher Intelligenz angetrieben werden. Diese digitalen Stars fesseln globale Publika durc
AI-gestützte Präzision bei der E-Mail-Extraktion steigern: Top-Strategien enthüllt Die Nutzung von AI zur Extraktion von E-Mail-Adressen aus Gesprächen steigert die Effizienz, aber die Genauigkeit bleibt eine zentrale Herausforderung für Entwickler. Dieser Leitfaden untersucht bewäh
KI-gestützte Malvorlagen: Atemberaubende Designs mühelos erstellen Entdecken Sie eine innovative KI-Plattform, die die Erstellung faszinierender Malvorlagen revolutioniert. Perfekt für Künstler, Pädagogen oder Enthusiasten, bietet dieses Tool eine intuitive Benutzero
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR