Option
Heim
Liste der Al -Modelle
DeepSeek-V2-Lite-Chat
Modellparametermenge
16B
Modellparametermenge
Angehörige Organisation
DeepSeek
Angehörige Organisation
Open Source
Lizenztyp
Freigabezeit
15. Mai 2024
Freigabezeit

Modelleinführung
DeepSeek-V2, ein starkes Mixture-of-Experts (MoE) Sprachmodell, das von DeepSeek vorgestellt wurde, das DeepSeek-V2-Lite ist eine leichte Version davon.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
3.8
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Hat bedeutende kenntnisgebende Flecken, die häufig sachliche Fehler zeigt und veraltete Informationen wiederholt.
5.3
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
1.9
Verwandter Modell
DeepSeek-V3-0324 DeepSeek-V3 übertrifft andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B in mehreren Bewertungen und erreicht die Leistung von erstklassigen Closed-Source-Modellen wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-R1-0528 Die neueste Version von Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungsmerkmale, spart dabei 42,5 % der Trainingskosten, reduziert das KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
DeepSeek-V2.5 DeepSeek-V2.5 ist eine aktualisierte Version, die DeepSeek-V2-Chat und DeepSeek-Coder-V2-Instruct kombiniert. Das neue Modell integriert die allgemeinen und Codierungsfähigkeiten der beiden vorherigen Versionen.
DeepSeek-V3-0324 DeepSeek-V3 übertrifft in mehreren Evaluierungen andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und entspricht dem Leistungsniveau oberhalb geschlossener Modelle wie GPT-4 und Claude-3.5-Sonnet.
Relevante Dokumente
Casio Classic Watches erhalten moderne Upgrades: Bluetooth, Schrittzähler und Spiele Die legendäre Casio F-91W Digitaluhr, die seit ihrem Debüt im Jahr 1989 unverändert ist, erhält endlich moderne, intelligente Funktionen - allerdings überraschenderweise nicht von Casio selbst. Hier k
Google Gemini Chatbot erhält erweiterte Funktionen zur Analyse von GitHub-Projekten Gemini Advanced integriert GitHub-KonnektivitätGoogles Premium-Abonnenten von Gemini Advanced ($20/Monat) können seit Mittwoch GitHub-Repositories direkt mit dem KI-Assistenten verknüpfen. Diese Integ
KI verändert Spiele mit Diplomatie, Meta-KI und Reinforcement Learning-Fortschritten Die Spielelandschaft erfährt durch künstliche Intelligenz einen tiefgreifenden Wandel und revolutioniert alles, vom strategischen Gameplay bis hin zu immersiven digitalen Erlebnissen. Anstatt nur mit
Proton stellt datenschutzfreundlichen KI-Chatbot inmitten wachsender Datenbedenken vor Proton, bekannt für seinen sicheren Proton Mail-Dienst, hat Lumo vorgestellt - einen bahnbrechenden KI-Assistenten, bei dessen Entwicklung der Datenschutz im Mittelpunkt stand. Das neue Angebot ermögl
Googles Gemini AI enthüllt eine Funktion zur Umwandlung von Fotos in Videos Das neueste Gemini-Update von Google führt eine bahnbrechende Foto-zu-Video-Konvertierung ein, die auf dem Veo 3-Modell basiert. Diese innovative Funktion wandelt statische Bilder in acht Sekunden lan
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR