Option
Heim
Liste der Al -Modelle
DeepSeek-R1-0528
Modellparametermenge
671B
Modellparametermenge
Angehörige Organisation
DeepSeek
Angehörige Organisation
Open Source
Lizenztyp
Freigabezeit
28. Mai 2025
Freigabezeit

Modelleinführung
Die neueste Version von Deepseek R1.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
In der Lage, komplexe Kontexte zu verstehen und logisch kohärente Sätze zu erzeugen, obwohl sie gelegentlich in der Tonkontrolle ausgeschaltet werden.
8.4
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Besitzt Kernwissen über Mainstream-Disziplinen, hat jedoch nur eine begrenzte Abdeckung der modernen interdisziplinären Bereiche.
8.9
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Griff grundlegende arithmetische und einfache logische Fragen gut, kämpft jedoch mit abstrakten Problemen.
6.0
Verwandter Modell
DeepSeek-V3-0324 DeepSeek-V3 übertrifft andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B in mehreren Bewertungen und erreicht die Leistung von erstklassigen Closed-Source-Modellen wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-V2-Chat-0628 DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungsmerkmale, spart dabei 42,5 % der Trainingskosten, reduziert das KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
DeepSeek-V2.5 DeepSeek-V2.5 ist eine aktualisierte Version, die DeepSeek-V2-Chat und DeepSeek-Coder-V2-Instruct kombiniert. Das neue Modell integriert die allgemeinen und Codierungsfähigkeiten der beiden vorherigen Versionen.
DeepSeek-V3-0324 DeepSeek-V3 übertrifft in mehreren Evaluierungen andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und entspricht dem Leistungsniveau oberhalb geschlossener Modelle wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-V2-Lite-Chat DeepSeek-V2, ein starkes Mixture-of-Experts (MoE) Sprachmodell, das von DeepSeek vorgestellt wurde, das DeepSeek-V2-Lite ist eine leichte Version davon.
Relevante Dokumente
Proton stellt datenschutzfreundlichen KI-Chatbot inmitten wachsender Datenbedenken vor Proton, bekannt für seinen sicheren Proton Mail-Dienst, hat Lumo vorgestellt - einen bahnbrechenden KI-Assistenten, bei dessen Entwicklung der Datenschutz im Mittelpunkt stand. Das neue Angebot ermögl
Googles Gemini AI enthüllt eine Funktion zur Umwandlung von Fotos in Videos Das neueste Gemini-Update von Google führt eine bahnbrechende Foto-zu-Video-Konvertierung ein, die auf dem Veo 3-Modell basiert. Diese innovative Funktion wandelt statische Bilder in acht Sekunden lan
AI Video Mastery: Virale Inhalte durch intelligente Bearbeitungstechniken aufwerten In der digitalen Landschaft von heute dominieren Videoinhalte den Online-Bereich. Es reicht jedoch nicht aus, einfach nur Videos zu produzieren. Sie müssen die Zuschauer mit fesselndem Bildmaterial un
Samsung Galaxy AI Testbericht: Reale Vorteile und alltägliche Anwendungsfälle Samsungs Galaxy AI-Suite hat in der gesamten Tech-Branche für Aufregung gesorgt, aber bietet sie auch sinnvolle Innovationen oder ist sie nur eine Neuauflage bestehender Funktionen? In unserer detaill
Conceptual Graphs Explained: AI-Leitfaden mit einfachen Beispielen Konzeptgraphen haben sich in der künstlichen Intelligenz als grundlegender Rahmen für die Wissensdarstellung herauskristallisiert. Sie bieten eine visuell intuitive und dennoch mathematisch strenge Mö
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR