विकल्प
मॉडल पारसिगर मात्रा
236B
मॉडल पारसिगर मात्रा
संबद्ध संगठन
DeepSeek
संबद्ध संगठन
ओपन सोर्स
लाइसेंस प्रकार
जारी करने का समय
5 मई 2024
जारी करने का समय
मॉडल परिचय
DeepSeek-V2 एक मिश्रण-ऑफ-विशेषज्ञ (MoE) भाषा मॉडल है जो आर्थिक ट्रेनिंग और कुशल अनुमान लगाने के लिए जाना जाता है। यह कुल 236 बिलियन पैरामीटरों से मिलकर बना है, जिसमें से 21 बिलियन प्रत्येक टोकन के लिए सक्रिय होते हैं। DeepSeek 67B की तुलना में, DeepSeek-V2 बेहतर प्रदर्शन प्रदान करता है, ट्रेनिंग लागत को 42.5% कम करता है, KV कैश को 93.3% कम करता है, और अधिकतम उत्पादन अनुमान की दर को 5.76 गुना बढ़ाता है।
भाषा समझ की क्षमता भाषा समझ की क्षमता
भाषा समझ की क्षमता
अक्सर सिमेंटिक गलतफहमी बनाता है, प्रतिक्रियाओं में स्पष्ट तार्किक डिस्कनेक्ट के लिए अग्रणी।
5.0
ज्ञान कवरेज गुंजाइश ज्ञान कवरेज गुंजाइश
ज्ञान कवरेज गुंजाइश
महत्वपूर्ण ज्ञान अंधा धब्बे हैं, अक्सर तथ्यात्मक त्रुटियां दिखाते हैं और पुरानी जानकारी दोहराते हैं।
6.3
तर्क क्षमता तर्क क्षमता
तर्क क्षमता
सुसंगत तर्क श्रृंखला बनाए रखने में असमर्थ, अक्सर उल्टे कार्य -कारण या मिसकॉल्स का कारण बनता है।
4.1
मॉडल तुलना
संबंधित मॉडल
DeepSeek-V2-Chat-0628 डीपसीक-V2 एक मिश्रण-ऑफ-इक्सपर्ट्स (MoE) भाषा मॉडल है जो कीमती ट्रेनिंग और कुशल अनुमान लगाव के साथ चिन्हित है। यह कुल 236 बिलियन पैरामीटरों से मिलकर बना है, जिसमें से 21 बिलियन प्रत्येक टोकन के लिए सक्रिय हैं। डीपसीक 67B की तुलना में, डीपसीक-V2 मजबूत प्रदर्शन प्रदान करता है, और इसने 42.5% की ट्रेनिंग लागत की कटौती की, KV कैश को 93.3% कम किया और अधिकतम उत्पादकता को 5.76 गुना बढ़ाया।
DeepSeek-V2.5 DeepSeek-V2.5 एक अपग्रेड वर्शन है जो DeepSeek-V2-Chat और DeepSeek-Coder-V2-Instruct को जोड़ता है। नया मॉडल पिछली दो संस्करणों की सामान्य और कोडिंग क्षमताओं को एक्सप्लोर करता है।
DeepSeek-V3-0324 डीपसीक-V3 कई मूल्यांकनों में Qwen2.5-72B और Llama-3.1-405B जैसे अन्य 오픈 स्रोत मॉडल्स को पारदर्शी करता है और GPT-4 और Claude-3.5-Sonnet जैसे शीर्ष श्रेणी के बंद स्रोत मॉडल्स के प्रदर्शन के साथ मेल खाता है।
DeepSeek-V2-Lite-Chat DeepSeek-V2, डीपसेक द्वारा पेश किए गए एक मजबूत Mixture-of-Experts (MoE) भाषा मॉडल है, और DeepSeek-V2-Lite उसकी हल्की संस्करण है।
DeepSeek-R1 DeepSeek-R1 एक मॉडल है जिसे बड़े पैमाने पर पुनर्निर्माण सीखने (RL) के माध्यम से प्रशिक्षित किया गया है, और प्रारंभिक चरण के रूप में सुरक्षित फाइन-ट्यूनिंग (SFT) का उपयोग नहीं किया गया है। इसका गणित, कोडिंग और तर्क संबंधी कार्यों में प्रदर्शन OpenAI-o1 के समान है।
प्रासंगिक दस्तावेज
OpenAI ने अपने Operator Agent के AI मॉडल को उन्नत किया ओपनएआई ने ऑपरेटर को अगले स्तर पर पहुंचायाओपनएआई अपने स्वायत्त AI एजेंट 'ऑपरेटर' को बड़ा अपग्रेड दे रहा है। आने वाले बदलावों का मतलब है कि ऑपरेटर अब ओ3 मॉडल पर आधारित होगा - ओपनएआई
गूगल के AI भविष्य फंड को धीरे-धीरे चलने पड़ सकता है गूगल का नया AI निवेश इनिशिएटिव: नियंत्रण के अध्ययन के बीच स्ट्रैटेजिक शिफ्ट गूगल के हाल के AI फ्यूचर्स फंड के बारे में घोषणा ने इंटरनेट के जादूगर कंपनी की लगातार प्रयासों को देखा
AI YouTube थंबनेल जनरेटर: अपने वीडियो दृश्य को बढ़ावा दें YouTube थंबनेल क्रिएशनिन में AI की शक्ति आज के डिजिटल परिदृश्य, एक मनोरम YouTube थंबनेल दर्शकों के ध्यान को हथियाने के लिए महत्वपूर्ण है। क्लिक के लिए प्रतिस्पर्धा करने वाले लाखों वीडियो के साथ, एक हड़ताली थंबनेल सभी अंतर बना सकता है। AI YouTube थंबनेल जनरेटर एक GAM के रूप में उभरे हैं
AI ट्रैवल ऐप्स: 2025 में स्मार्ट ट्रिप प्लानिंग के लिए आपका गाइड 2025 में एक यात्रा की योजना बना रहे हैं? यदि आप पहले से ही नहीं हैं, तो आप संभवतः अविश्वसनीय तरीकों के बारे में सुन चुके हैं आर्टिफिशियल इंटेलिजेंस (एआई) यात्रा उद्योग को फिर से आकार दे रहा है। एआई यात्रा ऐप्स आदर्श बन रहे हैं, जो आपकी यात्रा के हर पहलू को सरल बनाने और बढ़ाने का वादा कर रहे हैं। लेकिन ये ऐप वास्तव में कैसे काम करते हैं, और
Coze के साथ अपना अपना कस्टम AI चैटबॉट बनाने की विस्तृत नेविगेशन आज के तेज़-चालक डिजिटल दृश्य में, अपने स्वयं के चैटबॉट बनाना भारी मुश्किल लग सकता है। लेकिन Coze जैसी प्लेटफार्मों के कारण, इस पहले जटिल कार्य को आश्चर्यजनक रूप से सीधा बन गया है।
मॉडल तुलना
तुलना शुरू करें
शीर्ष पर वापस
OR