Google का जेम्मा 3 सिर्फ एक GPU के साथ डीपसेक की सटीकता का 98% प्राप्त करता है
आर्टिफिशियल इंटेलिजेंस का अर्थशास्त्र हाल ही में एक प्रमुख फोकस बन गया है, विशेष रूप से स्टार्टअप डीपसेक एआई के साथ जीपीयू चिप्स का उपयोग करने में पैमाने की प्रभावशाली अर्थव्यवस्थाओं को दिखाने के लिए। लेकिन Google आगे बढ़ने वाला नहीं है। बुधवार को, टेक दिग्गज ने अपने नवीनतम ओपन-सोर्स बड़े भाषा मॉडल, जेम्मा 3 का अनावरण किया, जो लगभग दीपसेक के आर 1 मॉडल की सटीकता से मेल खाता है, फिर भी काफी कम कंप्यूटिंग शक्ति का उपयोग करता है।
Google ने "ELO" स्कोर का उपयोग करके इस प्रदर्शन को मापा, एक प्रणाली जिसे आमतौर पर शतरंज और खेलों में प्रतियोगियों को रैंक करने के लिए उपयोग किया जाता है। GEMMA 3 ने R1 के 1363 में से सिर्फ एक 1338 का स्कोर किया, जिसका अर्थ है कि R1 तकनीकी रूप से echmerforms Gemma 3। हालांकि, Google का अनुमान है कि यह R1 के स्कोर तक पहुंचने के लिए NVIDIA के H100 GPU चिप्स के 32 को ले जाएगा, जबकि GEMMA 3 केवल एक H100 GPU के साथ अपने परिणाम प्राप्त करता है। Google "स्वीट स्पॉट" के रूप में गणना और ईएलओ स्कोर के इस संतुलन को टाल देता है।
एक ब्लॉग पोस्ट में, Google ने Gemma 3 को "सबसे सक्षम मॉडल के रूप में वर्णित किया है, जिसे आप एकल GPU या TPU पर चला सकते हैं," अपने स्वयं के कस्टम AI चिप, "टेंसर प्रसंस्करण इकाई" का जिक्र करते हुए। कंपनी का दावा है कि जेम्मा 3 "अपने आकार के लिए अत्याधुनिक प्रदर्शन को वितरित करती है," Lmarena के लीडरबोर्ड पर मानव वरीयता मूल्यांकन में Llama-405B, DeepSeekeek-V3, और O3-MINI जैसे मॉडल आउटशिनिंग मॉडल। यह प्रदर्शन एकल GPU या TPU होस्ट पर आकर्षक उपयोगकर्ता अनुभव बनाना आसान बनाता है।
गूगल
Google का मॉडल ईएलओ स्कोर में मेटा के लामा 3 को भी पार करता है, जिसे Google अनुमान के लिए 16 GPU की आवश्यकता होगी। यह ध्यान देने योग्य है कि प्रतिस्पर्धी मॉडल के लिए ये आंकड़े Google के अनुमान हैं; दीपसेक एआई ने केवल R1 के लिए NVIDIA के कम-शक्तिशाली H800 GPU के 1,814 का उपयोग करके खुलासा किया है।
अधिक गहराई से जानकारी एक डेवलपर ब्लॉग पोस्ट में हगिंगफेस पर पाई जा सकती है, जहां जेम्मा 3 रिपॉजिटरी उपलब्ध है। डेटा सेंटरों के बजाय ऑन-डिवाइस उपयोग के लिए डिज़ाइन किया गया, GEMMA 3 में R1 और अन्य ओपन-सोर्स मॉडल की तुलना में काफी कम मापदंडों की संख्या है। 1 बिलियन से 27 बिलियन तक के पैरामीटर की गिनती के साथ, जेम्मा 3 वर्तमान मानकों से काफी मामूली है, जबकि R1 में 671 बिलियन पैरामीटर का एक बड़ा हिस्सा है, हालांकि यह चुनिंदा रूप से केवल 37 बिलियन का उपयोग कर सकता है।
Gemma 3 की दक्षता की कुंजी एक व्यापक रूप से उपयोग की जाने वाली AI तकनीक है जिसे डिस्टिलेशन कहा जाता है, जहां एक बड़े मॉडल से प्रशिक्षित मॉडल वेट को एक छोटे से स्थानांतरित किया जाता है, इसकी क्षमताओं को बढ़ाता है। इसके अतिरिक्त, डिस्टिल्ड मॉडल तीन गुणवत्ता नियंत्रण उपायों से गुजरता है: मानव प्रतिक्रिया (RLHF) से सुदृढीकरण सीखने, मशीन प्रतिक्रिया (RLMF) से सुदृढीकरण सीखने और निष्पादन प्रतिक्रिया (RLEF) से सुदृढीकरण सीखने। ये मदद मॉडल के आउटपुट को परिष्कृत करते हैं, जिससे वे अधिक सहायक होते हैं और इसकी गणित और कोडिंग क्षमताओं में सुधार करते हैं।
Google के डेवलपर ब्लॉग में इन दृष्टिकोणों का विवरण है, और एक अन्य पोस्ट मोबाइल उपकरणों के उद्देश्य से सबसे छोटे 1 बिलियन पैरामीटर मॉडल के लिए अनुकूलन तकनीकों पर चर्चा करता है। इनमें परिमाणीकरण, कुंजी-मूल्य कैश लेआउट को अद्यतन करना, चर लोडिंग समय में सुधार, और जीपीयू वजन साझाकरण शामिल हैं।
Google न केवल ईएलओ स्कोर पर, बल्कि अपने पूर्ववर्ती, जेम्मा 2, और इसके बंद-स्रोत मिथुन मॉडल के खिलाफ भी LiveCodeBench जैसे विभिन्न बेंचमार्क पर Gemma 3 की तुलना करता है। जबकि GEMMA 3 आम तौर पर मिथुन 1.5 और मिथुन 2.0 से सटीकता में कम हो जाता है, Google नोट करता है कि यह कम मापदंडों के बावजूद "बंद मिथुन मॉडल की तुलना में प्रतिस्पर्धी प्रदर्शन दिखाता है।"
गूगल
Gemma 3 पर Gemma 2 में एक महत्वपूर्ण उन्नयन इसकी लंबी "संदर्भ विंडो" है, जो 8,000 से 128,000 टोकन तक विस्तारित है। यह मॉडल को पूरे कागजात या पुस्तकों जैसे बड़े ग्रंथों को संसाधित करने की अनुमति देता है। जेम्मा 3 भी बहु-मोडल है, जो अपने पूर्ववर्ती के विपरीत पाठ और छवि इनपुट दोनों को संभालने में सक्षम है। इसके अतिरिक्त, यह 140 से अधिक भाषाओं का समर्थन करता है, जेम्मा 2 की अंग्रेजी-केवल क्षमताओं पर एक विशाल सुधार।
इन मुख्य विशेषताओं से परे, जेम्मा 3 के लिए कई अन्य दिलचस्प पहलू हैं। बड़ी भाषा मॉडल के साथ एक मुद्दा उनके प्रशिक्षण डेटा के कुछ हिस्सों को याद करने की क्षमता है, जिससे गोपनीयता के उल्लंघन हो सकते हैं। Google के शोधकर्ताओं ने इसके लिए GEMMA 3 का परीक्षण किया और पाया कि यह अपने पूर्ववर्तियों की तुलना में कम दर पर लंबे समय के पाठ को याद करता है, बेहतर गोपनीयता सुरक्षा का सुझाव देता है।
Nitty-vitty में रुचि रखने वालों के लिए, Gemma 3 तकनीकी पेपर मॉडल की क्षमताओं और विकास का पूरी तरह से टूटना प्रदान करता है।
संबंधित लेख
AI in Medical Advisories: Transforming Healthcare
कृत्रिम बुद्धिमत्ता तेजी से स्वास्थ्य सेवा परिदृश्य को बदल रही है, और इसका कारण समझना मुश्किल नहीं है। तकनीकी प्रगति की गति ने उन संभावनाओं के द्वार खोल दिए हैं जो पहले असंभव मानी जाती थीं। यह लेख चिक
Aulani, Disney's Resort & Spa: Your Family's Ultimate Hawaiian Getaway
Aulani की खोज: डिज़्नी के स्पर्श के साथ एक हवाईयन स्वर्गक्या आप एक ऐसी पारिवारिक छुट्टी का सपना देख रहे हैं जो डिज़्नी के जादू को हवाई की अद्भुत सुंदरता के साथ जोड़े? Aulani, एक Disney Resort & Spa, ज
Airbnb अमेरिका में चुपके से AI ग्राहक सेवा बॉट लॉन्च कर रहा है
Airbnb AI-संचालित ग्राहक सेवा को नई ऊंचाइयों पर ले जा रहा हैपिछले महीने, Airbnb की पहली तिमाही की आय कॉल के दौरान, CEO ब्रायन चेस्की ने घोषणा की कि कंपनी ने अमेरिका में एक AI-संचालित ग्राहक सेवा बॉट ल
सूचना (5)
0/200
ArthurLopez
3 मई 2025 12:00:00 पूर्वाह्न GMT
Google's Gemma 3 is pretty impressive, hitting 98% accuracy with just one GPU! 🤯 It's like they're showing off, but in a good way. Makes me wonder if I should switch to Google's tech for my projects. Definitely worth a try, right?
0
EricJohnson
2 मई 2025 12:00:00 पूर्वाह्न GMT
GoogleのGemma 3は一つのGPUで98%の精度を達成するなんてすごいですね!🤯 見せびらかしているようだけど、いい意味で。自分のプロジェクトにGoogleの技術を使うべきか考えさせられます。試してみる価値はありそうですね。
0
StevenAllen
3 मई 2025 12:00:00 पूर्वाह्न GMT
구글의 Gemma 3이 한 개의 GPU로 98% 정확도를 달성하다니 정말 대단해요! 🤯 자랑하는 것 같지만 좋은 의미에서요. 내 프로젝트에 구글의 기술을 사용해야 할지 고민하게 만드네요. 시도해 볼 가치가 있을 것 같아요.
0
AlbertRodriguez
3 मई 2025 12:00:00 पूर्वाह्न GMT
O Gemma 3 do Google é impressionante, atingindo 98% de precisão com apenas uma GPU! 🤯 Parece que estão se exibindo, mas de um jeito bom. Me faz pensar se devo mudar para a tecnologia do Google para meus projetos. Vale a pena tentar, né?
0
GeorgeSmith
2 मई 2025 12:00:00 पूर्वाह्न GMT
गूगल का Gemma 3 एक ही GPU के साथ 98% सटीकता प्राप्त करना बहुत प्रभावशाली है! 🤯 ऐसा लगता है कि वे अपनी ताकत दिखा रहे हैं, लेकिन अच्छे तरीके से। मुझे सोचने पर मजबूर करता है कि क्या मुझे अपने प्रोजेक्ट्स के लिए गूगल की टेक्नोलॉजी का उपयोग करना चाहिए। निश्चित रूप से कोशिश करने लायक है, है ना?
0
आर्टिफिशियल इंटेलिजेंस का अर्थशास्त्र हाल ही में एक प्रमुख फोकस बन गया है, विशेष रूप से स्टार्टअप डीपसेक एआई के साथ जीपीयू चिप्स का उपयोग करने में पैमाने की प्रभावशाली अर्थव्यवस्थाओं को दिखाने के लिए। लेकिन Google आगे बढ़ने वाला नहीं है। बुधवार को, टेक दिग्गज ने अपने नवीनतम ओपन-सोर्स बड़े भाषा मॉडल, जेम्मा 3 का अनावरण किया, जो लगभग दीपसेक के आर 1 मॉडल की सटीकता से मेल खाता है, फिर भी काफी कम कंप्यूटिंग शक्ति का उपयोग करता है।
Google ने "ELO" स्कोर का उपयोग करके इस प्रदर्शन को मापा, एक प्रणाली जिसे आमतौर पर शतरंज और खेलों में प्रतियोगियों को रैंक करने के लिए उपयोग किया जाता है। GEMMA 3 ने R1 के 1363 में से सिर्फ एक 1338 का स्कोर किया, जिसका अर्थ है कि R1 तकनीकी रूप से echmerforms Gemma 3। हालांकि, Google का अनुमान है कि यह R1 के स्कोर तक पहुंचने के लिए NVIDIA के H100 GPU चिप्स के 32 को ले जाएगा, जबकि GEMMA 3 केवल एक H100 GPU के साथ अपने परिणाम प्राप्त करता है। Google "स्वीट स्पॉट" के रूप में गणना और ईएलओ स्कोर के इस संतुलन को टाल देता है।
एक ब्लॉग पोस्ट में, Google ने Gemma 3 को "सबसे सक्षम मॉडल के रूप में वर्णित किया है, जिसे आप एकल GPU या TPU पर चला सकते हैं," अपने स्वयं के कस्टम AI चिप, "टेंसर प्रसंस्करण इकाई" का जिक्र करते हुए। कंपनी का दावा है कि जेम्मा 3 "अपने आकार के लिए अत्याधुनिक प्रदर्शन को वितरित करती है," Lmarena के लीडरबोर्ड पर मानव वरीयता मूल्यांकन में Llama-405B, DeepSeekeek-V3, और O3-MINI जैसे मॉडल आउटशिनिंग मॉडल। यह प्रदर्शन एकल GPU या TPU होस्ट पर आकर्षक उपयोगकर्ता अनुभव बनाना आसान बनाता है।
गूगल
Google का मॉडल ईएलओ स्कोर में मेटा के लामा 3 को भी पार करता है, जिसे Google अनुमान के लिए 16 GPU की आवश्यकता होगी। यह ध्यान देने योग्य है कि प्रतिस्पर्धी मॉडल के लिए ये आंकड़े Google के अनुमान हैं; दीपसेक एआई ने केवल R1 के लिए NVIDIA के कम-शक्तिशाली H800 GPU के 1,814 का उपयोग करके खुलासा किया है।
अधिक गहराई से जानकारी एक डेवलपर ब्लॉग पोस्ट में हगिंगफेस पर पाई जा सकती है, जहां जेम्मा 3 रिपॉजिटरी उपलब्ध है। डेटा सेंटरों के बजाय ऑन-डिवाइस उपयोग के लिए डिज़ाइन किया गया, GEMMA 3 में R1 और अन्य ओपन-सोर्स मॉडल की तुलना में काफी कम मापदंडों की संख्या है। 1 बिलियन से 27 बिलियन तक के पैरामीटर की गिनती के साथ, जेम्मा 3 वर्तमान मानकों से काफी मामूली है, जबकि R1 में 671 बिलियन पैरामीटर का एक बड़ा हिस्सा है, हालांकि यह चुनिंदा रूप से केवल 37 बिलियन का उपयोग कर सकता है।
Gemma 3 की दक्षता की कुंजी एक व्यापक रूप से उपयोग की जाने वाली AI तकनीक है जिसे डिस्टिलेशन कहा जाता है, जहां एक बड़े मॉडल से प्रशिक्षित मॉडल वेट को एक छोटे से स्थानांतरित किया जाता है, इसकी क्षमताओं को बढ़ाता है। इसके अतिरिक्त, डिस्टिल्ड मॉडल तीन गुणवत्ता नियंत्रण उपायों से गुजरता है: मानव प्रतिक्रिया (RLHF) से सुदृढीकरण सीखने, मशीन प्रतिक्रिया (RLMF) से सुदृढीकरण सीखने और निष्पादन प्रतिक्रिया (RLEF) से सुदृढीकरण सीखने। ये मदद मॉडल के आउटपुट को परिष्कृत करते हैं, जिससे वे अधिक सहायक होते हैं और इसकी गणित और कोडिंग क्षमताओं में सुधार करते हैं।
Google के डेवलपर ब्लॉग में इन दृष्टिकोणों का विवरण है, और एक अन्य पोस्ट मोबाइल उपकरणों के उद्देश्य से सबसे छोटे 1 बिलियन पैरामीटर मॉडल के लिए अनुकूलन तकनीकों पर चर्चा करता है। इनमें परिमाणीकरण, कुंजी-मूल्य कैश लेआउट को अद्यतन करना, चर लोडिंग समय में सुधार, और जीपीयू वजन साझाकरण शामिल हैं।
Google न केवल ईएलओ स्कोर पर, बल्कि अपने पूर्ववर्ती, जेम्मा 2, और इसके बंद-स्रोत मिथुन मॉडल के खिलाफ भी LiveCodeBench जैसे विभिन्न बेंचमार्क पर Gemma 3 की तुलना करता है। जबकि GEMMA 3 आम तौर पर मिथुन 1.5 और मिथुन 2.0 से सटीकता में कम हो जाता है, Google नोट करता है कि यह कम मापदंडों के बावजूद "बंद मिथुन मॉडल की तुलना में प्रतिस्पर्धी प्रदर्शन दिखाता है।"
गूगल
Gemma 3 पर Gemma 2 में एक महत्वपूर्ण उन्नयन इसकी लंबी "संदर्भ विंडो" है, जो 8,000 से 128,000 टोकन तक विस्तारित है। यह मॉडल को पूरे कागजात या पुस्तकों जैसे बड़े ग्रंथों को संसाधित करने की अनुमति देता है। जेम्मा 3 भी बहु-मोडल है, जो अपने पूर्ववर्ती के विपरीत पाठ और छवि इनपुट दोनों को संभालने में सक्षम है। इसके अतिरिक्त, यह 140 से अधिक भाषाओं का समर्थन करता है, जेम्मा 2 की अंग्रेजी-केवल क्षमताओं पर एक विशाल सुधार।
इन मुख्य विशेषताओं से परे, जेम्मा 3 के लिए कई अन्य दिलचस्प पहलू हैं। बड़ी भाषा मॉडल के साथ एक मुद्दा उनके प्रशिक्षण डेटा के कुछ हिस्सों को याद करने की क्षमता है, जिससे गोपनीयता के उल्लंघन हो सकते हैं। Google के शोधकर्ताओं ने इसके लिए GEMMA 3 का परीक्षण किया और पाया कि यह अपने पूर्ववर्तियों की तुलना में कम दर पर लंबे समय के पाठ को याद करता है, बेहतर गोपनीयता सुरक्षा का सुझाव देता है।
Nitty-vitty में रुचि रखने वालों के लिए, Gemma 3 तकनीकी पेपर मॉडल की क्षमताओं और विकास का पूरी तरह से टूटना प्रदान करता है।




Google's Gemma 3 is pretty impressive, hitting 98% accuracy with just one GPU! 🤯 It's like they're showing off, but in a good way. Makes me wonder if I should switch to Google's tech for my projects. Definitely worth a try, right?




GoogleのGemma 3は一つのGPUで98%の精度を達成するなんてすごいですね!🤯 見せびらかしているようだけど、いい意味で。自分のプロジェクトにGoogleの技術を使うべきか考えさせられます。試してみる価値はありそうですね。




구글의 Gemma 3이 한 개의 GPU로 98% 정확도를 달성하다니 정말 대단해요! 🤯 자랑하는 것 같지만 좋은 의미에서요. 내 프로젝트에 구글의 기술을 사용해야 할지 고민하게 만드네요. 시도해 볼 가치가 있을 것 같아요.




O Gemma 3 do Google é impressionante, atingindo 98% de precisão com apenas uma GPU! 🤯 Parece que estão se exibindo, mas de um jeito bom. Me faz pensar se devo mudar para a tecnologia do Google para meus projetos. Vale a pena tentar, né?




गूगल का Gemma 3 एक ही GPU के साथ 98% सटीकता प्राप्त करना बहुत प्रभावशाली है! 🤯 ऐसा लगता है कि वे अपनी ताकत दिखा रहे हैं, लेकिन अच्छे तरीके से। मुझे सोचने पर मजबूर करता है कि क्या मुझे अपने प्रोजेक्ट्स के लिए गूगल की टेक्नोलॉजी का उपयोग करना चाहिए। निश्चित रूप से कोशिश करने लायक है, है ना?












