विकल्प
मॉडल पारसिगर मात्रा
7B
मॉडल पारसिगर मात्रा
संबद्ध संगठन
Alibaba
संबद्ध संगठन
ओपन सोर्स
लाइसेंस प्रकार
जारी करने का समय
4 फरवरी 2024
जारी करने का समय
मॉडल परिचय
Qwen1.5, Qwen2 की बीटा संस्करण है, जो एक डिकोडर-सिएल-ट्रांसफार्मर मॉडल की संरचना को बनाए रखता है, जिसमें SwiGLU सक्रियण, RoPE और मल्टी-हेड ध्यान मैकेनिज़्म शामिल हैं। यह नौ मॉडल आकारों का प्रदान करता है और बेहतर बहुभाषी और चैट मॉडल क्षमताओं का समर्थन करता है, 32,768 टोकेन की संदर्भ लंबाई का समर्थन करता है। सभी मॉडलों में प्रणाली प्रॉम्प्ट्स का समर्थन किया जाता है और कोड ट्रांसफार्मर्स में नेटिव लागत उपलब्ध कराता है।
और देखने के लिए बाएं और दाएं स्वाइप करें
भाषा समझ की क्षमता भाषा समझ की क्षमता
भाषा समझ की क्षमता
अक्सर सिमेंटिक गलतफहमी बनाता है, प्रतिक्रियाओं में स्पष्ट तार्किक डिस्कनेक्ट के लिए अग्रणी।
4.5
ज्ञान कवरेज गुंजाइश ज्ञान कवरेज गुंजाइश
ज्ञान कवरेज गुंजाइश
महत्वपूर्ण ज्ञान अंधा धब्बे हैं, अक्सर तथ्यात्मक त्रुटियां दिखाते हैं और पुरानी जानकारी दोहराते हैं।
5.1
तर्क क्षमता तर्क क्षमता
तर्क क्षमता
सुसंगत तर्क श्रृंखला बनाए रखने में असमर्थ, अक्सर उल्टे कार्य -कारण या मिसकॉल्स का कारण बनता है।
2.2
मॉडल तुलना
संबंधित मॉडल
Qwen2.5-7B-Instruct जैसे Qwen2, Qwen2.5 भाषा मॉडल्स 128K टोकन्स तक समर्थन करते हैं और अधिकतम 8K टोकन्स तक प्रस्तुत कर सकते हैं। वे 29 से अधिक भाषाओं, जिनमें चीनी, अंग्रेजी, फ्रेंच, स्पैनिश, पुर्तगाली, जर्मन, इटालियन, रूसी, जापानी, कोरियन, वियतनामी, थाई, अरबी और अधिक, का बहुभाषी समर्थन भी बनाए रखते हैं।
Qwen3-32B (Thinking) Qwen3, Qwen श्रृंखला का सबसे नवीनतम पीढ़ी का बड़ा भाषा मॉडल है, जो घने और मिश्रण-ऑफ-विशेषज्ञ (MoE) मॉडल की एक व्यापक सूट प्रदान करता है।
Qwen1.5-72B-Chat Qwen1.5, Qwen2 की बीटा संस्करण है, जो एक डिकोडर-सिंगल ट्रांसफॉर्मर मॉडल की संरचना को बनाए रखता है, जिसमें SwiGLU एक्टिवेशन, RoPE और मल्टी-हेड एटेंशन मैकेनिज़्म शामिल हैं। यह नौ मॉडल आकारों का प्रदान करता है और बेहतर बहुभाषी और चैट मॉडल क्षमताएं प्रदान करता है, 32,768 टोकेन की संदर्भ लंबाई का समर्थन करता है। सभी मॉडलों में सिस्टम प्रॉम्प्ट का समर्थन चरित्र निभाने के लिए किया जाता है, और कोड ट्रांसफॉर्मर्स में नेटिव लागत रखने का समर्थन करता है।
Qwen1.5-14B-Chat Qwen1.5, Qwen2 की बीटा संस्करण है, जो एक केवल-डिकोडर ट्रांसफॉर्मर मॉडल के रूप में अपने आर्किटेक्चर को बनाए रखता है, स्विग्लू एक्टिवेशन, RoPE और मल्टी-हेड एटेंशन मैकेनिज्म के साथ। यह नौ मॉडल आकारों का प्रदान करता है और बेहतर बहुभाषी और चैट मॉडल क्षमताएं प्रदान करता है, 32,768 टोकेन की संदर्भ लंबाई का समर्थन करता है। सभी मॉडलों में सिस्टम प्रॉम्प्ट का समर्थन किया जाता है और कोड ट्रांसफॉर्मर्स में नेटिव लागत का समर्थन करता है।
Qwen-Max-0428 Qwen-Max अलिबाबा द्वारा बनाई गई API मॉडल है। यह 0428 संस्करण है।
प्रासंगिक दस्तावेज
AI-चालित शिक्षा: ग्रेडों में सीखने में क्रांति लाना कृत्रिम बुद्धिमत्ता (AI) शिक्षा को नवीन उपकरणों के माध्यम से बदल रही है जो छात्रों को आकर्षित करते हैं और सीखने को अनुकूलित करते हैं। यह लेख जांचता है कि शिक्षक AI का उपयोग कैसे कर सकते हैं, जिसमें Mi
AI बनाम मानव लेखक: क्या मशीनें रचनात्मकता को मात दे सकती हैं? सामग्री-प्रधान युग में, यह बहस तेज हो रही है कि क्या कृत्रिम बुद्धिमत्ता (AI) मानव लेखकों को पीछे छोड़ सकती है। AI गति और लागत बचत प्रदान करता है, लेकिन मानव अद्वितीय रचनात्मकता, सहानुभूति और अंतर्दृष
AI Idols मनोरंजन को वर्चुअल प्रदर्शनों के साथ क्रांतिकारी बनाते हैं मनोरंजन का परिदृश्य AI idols, कृत्रिम बुद्धिमत्ता द्वारा संचालित वर्चुअल प्रदर्शनकर्ताओं के उदय के साथ बदल रहा है। ये डिजिटल सितारे नवाचारी संगीत, आकर्षक दृश्यों, और इंटरैक्टिव अनुभवों के माध्यम से वै
AI द्वारा संचालित ईमेल निष्कर्षण सटीकता को बढ़ावा देना: शीर्ष रणनीतियाँ सामने आईं AI का उपयोग करके बातचीत से ईमेल पते निकालना दक्षता को बढ़ाता है, लेकिन सटीकता डेवलपर्स के लिए एक प्रमुख चुनौती बनी हुई है। यह मार्गदर्शिका परिष्कृत प्रॉम्प्ट इंजीनियरिंग और ट्रांसक्रिप्शन मॉडल के माध्
AI-चालित रंग भरने वाले पेज: आसानी से शानदार डिज़ाइन बनाएं एक नवाचारी AI मंच की खोज करें जो आकर्षक रंग भरने वाले पेजों के निर्माण को बदल देता है। कलाकारों, शिक्षकों या उत्साहियों के लिए आदर्श, यह उपकरण एक सहज इंटरफ़ेस और मजबूत सुविधाएँ प्रदान करता है ताकि आपक
मॉडल तुलना
तुलना शुरू करें
शीर्ष पर वापस
OR