विकल्प
मॉडल पारसिगर मात्रा
671B
मॉडल पारसिगर मात्रा
संबद्ध संगठन
DeepSeek
संबद्ध संगठन
ओपन सोर्स
लाइसेंस प्रकार
जारी करने का समय
19 जनवरी 2025
जारी करने का समय
मॉडल परिचय
डीपसीक-R1 ने पोस्ट-ट्रेनिंग चरण में अधिकतम बलियों वाली सीखने की तकनीकों का उपयोग किया, जिससे केवल कुछ अंकित डेटा के साथ मॉडल की तर्कशक्ति में महत्वपूर्ण सुधार हुआ। गणित, कोडिंग और प्राकृतिक भाषा अनुमान जैसी कार्यों में, इसका प्रदर्शन OpenAI के o1 के आधिकारिक रिलीज़ के समान है।
भाषा समझ की क्षमता भाषा समझ की क्षमता
भाषा समझ की क्षमता
जटिल संदर्भों को समझने और तार्किक रूप से सुसंगत वाक्यों को उत्पन्न करने में सक्षम, हालांकि कभी -कभी टोन नियंत्रण में बंद हो जाता है।
7.5
ज्ञान कवरेज गुंजाइश ज्ञान कवरेज गुंजाइश
ज्ञान कवरेज गुंजाइश
वास्तविक समय में नवीनतम शोध निष्कर्षों और क्रॉस-सांस्कृतिक ज्ञान को एकीकृत करते हुए, 200 से अधिक विशिष्ट क्षेत्रों को शामिल करता है।
9.0
तर्क क्षमता तर्क क्षमता
तर्क क्षमता
तीन से अधिक चरणों के साथ तार्किक तर्क कर सकते हैं, हालांकि नॉनलाइनर संबंधों को संभालने पर दक्षता गिरती है।
8.5
मॉडल तुलना
संबंधित मॉडल
DeepSeek-V2-Chat-0628 डीपसीक-V2 एक मिश्रण-ऑफ-इक्सपर्ट्स (MoE) भाषा मॉडल है जो कीमती ट्रेनिंग और कुशल अनुमान लगाव के साथ चिन्हित है। यह कुल 236 बिलियन पैरामीटरों से मिलकर बना है, जिसमें से 21 बिलियन प्रत्येक टोकन के लिए सक्रिय हैं। डीपसीक 67B की तुलना में, डीपसीक-V2 मजबूत प्रदर्शन प्रदान करता है, और इसने 42.5% की ट्रेनिंग लागत की कटौती की, KV कैश को 93.3% कम किया और अधिकतम उत्पादकता को 5.76 गुना बढ़ाया।
DeepSeek-V2.5 DeepSeek-V2.5 एक अपग्रेड वर्शन है जो DeepSeek-V2-Chat और DeepSeek-Coder-V2-Instruct को जोड़ता है। नया मॉडल पिछली दो संस्करणों की सामान्य और कोडिंग क्षमताओं को एक्सप्लोर करता है।
DeepSeek-V3-0324 डीपसीक-V3 कई मूल्यांकनों में Qwen2.5-72B और Llama-3.1-405B जैसे अन्य 오픈 स्रोत मॉडल्स को पारदर्शी करता है और GPT-4 और Claude-3.5-Sonnet जैसे शीर्ष श्रेणी के बंद स्रोत मॉडल्स के प्रदर्शन के साथ मेल खाता है।
DeepSeek-V2-Lite-Chat DeepSeek-V2, डीपसेक द्वारा पेश किए गए एक मजबूत Mixture-of-Experts (MoE) भाषा मॉडल है, और DeepSeek-V2-Lite उसकी हल्की संस्करण है।
DeepSeek-V2-Chat DeepSeek-V2 एक मिश्रण-ऑफ-विशेषज्ञ (MoE) भाषा मॉडल है जो आर्थिक ट्रेनिंग और कुशल अनुमान लगाने के लिए जाना जाता है। यह कुल 236 बिलियन पैरामीटरों से मिलकर बना है, जिसमें से 21 बिलियन प्रत्येक टोकन के लिए सक्रिय होते हैं। DeepSeek 67B की तुलना में, DeepSeek-V2 बेहतर प्रदर्शन प्रदान करता है, ट्रेनिंग लागत को 42.5% कम करता है, KV कैश को 93.3% कम करता है, और अधिकतम उत्पादन अनुमान की दर को 5.76 गुना बढ़ाता है।
प्रासंगिक दस्तावेज
Google Gemini कोड असिस्ट, एजेंट सुविधाओं से AI कोडिंग को बढ़ावा जेमिनी कोड असिस्ट, गूगल का AI-संचालित कोडिंग साथी, अब प्रीव्यू मोड में नई "एजेंटिक" सुविधाएं लॉन्च कर रहा है। हाल ही में क्लाउड नेक्स्ट कॉन्फ्रेंस में गूगल ने दिखाया कि कैसे कोड अस
Microsoft ने Build में CLI टेक्स्ट एडिटर ओपन-सोर्स किया माइक्रोसॉफ्ट ने बिल्ड 2025 में ओपन सोर्स पर दांव लगायाइस साल के बिल्ड 2025 कॉन्फ्रेंस में माइक्रोसॉफ्ट ने ओपन-सोर्स दुनिया में कुछ बड़े कदम उठाए, जिसमें विंडोज के लिए एक नया कमांड-
OpenAI ने अपने Operator Agent के AI मॉडल को उन्नत किया ओपनएआई ने ऑपरेटर को अगले स्तर पर पहुंचायाओपनएआई अपने स्वायत्त AI एजेंट 'ऑपरेटर' को बड़ा अपग्रेड दे रहा है। आने वाले बदलावों का मतलब है कि ऑपरेटर अब ओ3 मॉडल पर आधारित होगा - ओपनएआई
गूगल के AI भविष्य फंड को धीरे-धीरे चलने पड़ सकता है गूगल का नया AI निवेश इनिशिएटिव: नियंत्रण के अध्ययन के बीच स्ट्रैटेजिक शिफ्ट गूगल के हाल के AI फ्यूचर्स फंड के बारे में घोषणा ने इंटरनेट के जादूगर कंपनी की लगातार प्रयासों को देखा
AI YouTube थंबनेल जनरेटर: अपने वीडियो दृश्य को बढ़ावा दें YouTube थंबनेल क्रिएशनिन में AI की शक्ति आज के डिजिटल परिदृश्य, एक मनोरम YouTube थंबनेल दर्शकों के ध्यान को हथियाने के लिए महत्वपूर्ण है। क्लिक के लिए प्रतिस्पर्धा करने वाले लाखों वीडियो के साथ, एक हड़ताली थंबनेल सभी अंतर बना सकता है। AI YouTube थंबनेल जनरेटर एक GAM के रूप में उभरे हैं
मॉडल तुलना
तुलना शुरू करें
शीर्ष पर वापस
OR