Option
Heim
Liste der Al -Modelle
DeepSeek-V2-Chat-0628
Modellparametermenge
236B
Modellparametermenge
Angehörige Organisation
DeepSeek
Angehörige Organisation
Open Source
Lizenztyp
Freigabezeit
6. Mai 2024
Freigabezeit

Modelleinführung
DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungsmerkmale, spart dabei 42,5 % der Trainingskosten, reduziert das KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
4.6
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Besitzt Kernwissen über Mainstream-Disziplinen, hat jedoch nur eine begrenzte Abdeckung der modernen interdisziplinären Bereiche.
7.8
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
4.7
Verwandter Modell
DeepSeek-V3-0324 DeepSeek-V3 übertrifft andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B in mehreren Bewertungen und erreicht die Leistung von erstklassigen Closed-Source-Modellen wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-R1-0528 Die neueste Version von Deepseek R1.
DeepSeek-V2.5 DeepSeek-V2.5 ist eine aktualisierte Version, die DeepSeek-V2-Chat und DeepSeek-Coder-V2-Instruct kombiniert. Das neue Modell integriert die allgemeinen und Codierungsfähigkeiten der beiden vorherigen Versionen.
DeepSeek-V3-0324 DeepSeek-V3 übertrifft in mehreren Evaluierungen andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und entspricht dem Leistungsniveau oberhalb geschlossener Modelle wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, ein starkes Mixture-of-Experts (MoE) Sprachmodell, das von DeepSeek vorgestellt wurde, das DeepSeek-V2-Lite ist eine leichte Version davon.
Relevante Dokumente
US-Senat streicht KI-Moratorium aus Haushaltsgesetz inmitten von Kontroversen Senat hebt Moratorium für KI-Regulierung mit überwältigender Mehrheit aufIn einem seltenen Akt parteiübergreifender Einigkeit stimmten die US-Gesetzgeber am Dienstag fast einstimmig für die Aufhebun
Warum AI bei den Überschwemmungen in Texas 2025 versagt hat: Wichtige Lektionen für den Katastrophenschutz Hier ist die überarbeitete Version:Die Überschwemmungen in Texas im Jahr 2025: Ein WeckrufIm Juli 2025 kam es in Texas zu katastrophalen Überschwemmungen, die entscheidende Lücken in der Katastrophenv
Letzte Chance, vergünstigte Tickets für die TechCrunch Sessions zu erhalten: AI-Veranstaltung morgen Dies ist nicht nur eine weitere Tech-Konferenz - in der Zellerbach Hall der UC Berkeley findet die wichtigste KI-Veranstaltung des Jahres statt. Wenn sich morgen die Türen öffnen, werden Sie zu der au
KI-gestützte Newsletter-Automatisierungsanleitung: Optimieren Sie Ihren Workflow mit Leichtigkeit Hier ist meine Neufassung des HTML-Inhalts unter strikter Beibehaltung aller ursprünglichen Tags und Strukturen:Schlüsselpunkte Einrichten eines automatisierten Newsletter-Workflows unter Verwendung v
Hawaiianische Strand-Eskapaden: Neue Bindungen und überraschende Wendungen Stellen Sie sich vor, Sie liegen an einem unberührten hawaiianischen Strand, die Sonne wärmt Ihre Haut, die Wellen erzeugen einen beruhigenden Rhythmus. Für Josh wurde diese Vision nach Jahren der Hi
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR