Option
Modellparametermenge
671B
Modellparametermenge
Angehörige Organisation
DeepSeek
Angehörige Organisation
Open Source
Lizenztyp
Freigabezeit
20. Januar 2025
Freigabezeit

Modelleinführung
DeepSeek-R1 nutzte in der Nachtrainings-Phase ausgiebig Techniken des Reinforcement Learning und verbesserte so die Schlussfolgerungsfähigkeiten des Modells mit nur einer minimalen Menge an kommentierten Daten erheblich. Bei Aufgaben, die Mathematik, Codierung und natürlichsprachliche Inferenz beinhalten, ist seine Leistung gleichauf mit der offiziellen Version von OpenAIs o1.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
In der Lage, komplexe Kontexte zu verstehen und logisch kohärente Sätze zu erzeugen, obwohl sie gelegentlich in der Tonkontrolle ausgeschaltet werden.
7.5
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Deckt mehr als 200 spezialisierte Felder ab und integriert die neuesten Forschungsergebnisse und interkulturelles Wissen in Echtzeit.
9.0
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Kann logische Argumentation mit mehr als drei Schritten ausführen, obwohl die Effizienz beim Umgang mit nichtlinearen Beziehungen sinkt.
8.5
Verwandter Modell
DeepSeek-V3-0324 DeepSeek-V3 übertrifft andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B in mehreren Bewertungen und erreicht die Leistung von erstklassigen Closed-Source-Modellen wie GPT-4 und Claude-3.5-Sonnet.
DeepSeek-R1-0528 Die neueste Version von Deepseek R1.
DeepSeek-V2-Chat-0628 DeepSeek-V2 ist ein starkes Mixture-of-Experts (MoE)-Sprachmodell, das durch kostengünstiges Training und effizientes Inferenz gekennzeichnet ist. Es besteht aus insgesamt 236 Billionen Parametern, wovon für jeden Token 21 Milliarden aktiviert sind. Im Vergleich zum DeepSeek 67B erreicht DeepSeek-V2 stärkere Leistungsmerkmale, spart dabei 42,5 % der Trainingskosten, reduziert das KV-Cache um 93,3 % und steigert die maximale Generierungsdurchsatz bis zu 5,76-mal.
DeepSeek-V2.5 DeepSeek-V2.5 ist eine aktualisierte Version, die DeepSeek-V2-Chat und DeepSeek-Coder-V2-Instruct kombiniert. Das neue Modell integriert die allgemeinen und Codierungsfähigkeiten der beiden vorherigen Versionen.
DeepSeek-V3-0324 DeepSeek-V3 übertrifft in mehreren Evaluierungen andere Open-Source-Modelle wie Qwen2.5-72B und Llama-3.1-405B und entspricht dem Leistungsniveau oberhalb geschlossener Modelle wie GPT-4 und Claude-3.5-Sonnet.
Relevante Dokumente
KI-Anzeigen-Skalierung Revolution: 10-fache Kreativitätssteigerung bis 2025 Die digitale Werbelandschaft entwickelt sich rasant weiter, so dass Innovationen für den Erfolg im Wettbewerb unabdingbar sind. Auf dem Weg ins Jahr 2025 bietet die Verschmelzung von künstlicher Intel
KI-Rekrutierungssysteme decken versteckte Vorurteile auf, die Einstellungsentscheidungen beeinflussen Die versteckten Vorurteile bei der KI-Einstellung: Systemische Diskriminierung in Einstellungsalgorithmen angehenEinleitungKI-gestützte Einstellungsprogramme versprechen, die Personalbeschaffung durch
Ramp-Daten zeigen, dass die Akzeptanz von KI in Unternehmen sinkt Die Akzeptanz von KI in Unternehmen erreicht ein PlateauWährend sich Unternehmen anfangs mit der Implementierung von Lösungen für künstliche Intelligenz beeilten, scheint sich der Enthusiasmus nun zu
Pokemon Feuerrot Kaizo-EisenMon-Herausforderung: Wesentliche Regeln & Gewinnstrategien Die Pokemon Feuerrot Kaizo IronMon-Herausforderung gilt als eine der ultimativen Geschicklichkeitsprüfungen im Spiel - ein brutaler Spießrutenlauf, der konventionelle Pokemon-Strategien durchbricht un
KI-gesteuerte Aufgabenmanagement-Tools maximieren Produktivität und Effizienz Die Zukunft der Produktivität: KI-gestütztes AufgabenmanagementIn unserer sich ständig beschleunigenden digitalen Landschaft ist ein effektives Aufgabenmanagement für den beruflichen Erfolg unerlässli
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR