

Google की नवीनतम AI मॉडल रिपोर्ट में प्रमुख सुरक्षा विवरण का अभाव है, विशेषज्ञों का कहना है कि
27 अप्रैल 2025
ChristopherThomas
0
गुरुवार को, अपने नवीनतम और सबसे उन्नत एआई मॉडल, मिथुन 2.5 प्रो को लॉन्च करने के हफ्तों बाद, Google ने अपने आंतरिक सुरक्षा आकलन के परिणामों का विवरण देते हुए एक तकनीकी रिपोर्ट जारी की। हालांकि, विशेषज्ञों ने इसके विस्तार की कमी के लिए रिपोर्ट की आलोचना की है, जिससे मॉडल से जुड़े संभावित जोखिमों को पूरी तरह से समझना चुनौतीपूर्ण है।
एआई दुनिया में तकनीकी रिपोर्टें महत्वपूर्ण हैं, इनसाइट्स की पेशकश करते हैं - भले ही वे कभी -कभी अप्रभावी हों - जो कंपनियां आमतौर पर सार्वजनिक रूप से साझा नहीं कर सकती हैं। इन रिपोर्टों को आम तौर पर एआई समुदाय द्वारा स्वतंत्र अनुसंधान को बढ़ावा देने और सुरक्षा मूल्यांकन को बढ़ाने के वास्तविक प्रयासों के रूप में देखा जाता है।
सुरक्षा रिपोर्टिंग के लिए Google का दृष्टिकोण उसके कुछ प्रतियोगियों से अलग है। एक मॉडल "प्रायोगिक" चरण से परे जाने के बाद कंपनी केवल तकनीकी रिपोर्ट प्रकाशित करती है। इसके अलावा, Google इन रिपोर्टों से कुछ "खतरनाक क्षमता" मूल्यांकन परिणामों को छोड़ देता है, उन्हें एक अलग ऑडिट के लिए बचत करता है।
इसके बावजूद, कई विशेषज्ञों ने Gemini 2.5 Pro रिपोर्ट के साथ TechCrunch को निराशा व्यक्त की, जो Google के प्रस्तावित फ्रंटियर सेफ्टी फ्रेमवर्क (FSF) के अपने स्केंट कवरेज को इंगित करता है। Google ने पिछले साल FSF का अनावरण किया, जिसका उद्देश्य भविष्य की AI क्षमताओं को इंगित करना था, जिससे "गंभीर नुकसान हो सकता है।"
इंस्टीट्यूट फॉर एआई पॉलिसी एंड स्ट्रेटेजी के सह-संस्थापक पीटर वाइल्डफोर्ड ने कहा, "यह रिपोर्ट बहुत विरल है, जिसमें न्यूनतम जानकारी शामिल है, और मॉडल के पहले से ही सार्वजनिक किए जाने के हफ्तों बाद जारी किया गया था।" "यह सत्यापित करना असंभव है कि क्या Google अपनी सार्वजनिक प्रतिबद्धताओं के लिए रह रहा है और इस प्रकार उनके मॉडल की सुरक्षा और सुरक्षा का आकलन करना असंभव है।"
सिक्योर एआई प्रोजेक्ट के सह-संस्थापक थॉमस वुडसाइड ने मिथुन 2.5 प्रो के लिए रिपोर्ट जारी करने की बात स्वीकार की, लेकिन समय पर पूरक सुरक्षा मूल्यांकन प्रदान करने के लिए Google के समर्पण पर सवाल उठाया। उन्होंने कहा कि Google ने अंतिम बार जून 2024 में खतरनाक क्षमता परीक्षण के परिणाम प्रकाशित किए थे, उस वर्ष के फरवरी में घोषित एक मॉडल के लिए।
चिंताओं को जोड़ते हुए, Google ने अभी तक मिथुन 2.5 फ्लैश के लिए एक रिपोर्ट जारी नहीं की है, जो पिछले सप्ताह घोषित एक छोटा, अधिक कुशल मॉडल है। एक प्रवक्ता ने टेकक्रंच को सूचित किया कि फ्लैश के लिए एक रिपोर्ट "जल्द ही आ रही है।"
"मुझे उम्मीद है कि यह Google से अधिक लगातार अपडेट प्रकाशित करने के लिए एक वादा है," वुडसाइड ने TechCrunch को बताया। "उन अपडेट में उन मॉडलों के मूल्यांकन के परिणाम शामिल होने चाहिए जिन्हें सार्वजनिक रूप से अभी तक तैनात नहीं किया गया है, क्योंकि वे मॉडल भी गंभीर जोखिम पैदा कर सकते हैं।"
जबकि Google मॉडल के लिए मानकीकृत रिपोर्टों का प्रस्ताव करने वाले पहले AI लैब्स में से था, यह पारदर्शिता की कमी के लिए आलोचना का सामना करने में अकेला नहीं है। मेटा ने अपने नए लामा 4 ओपन मॉडल के लिए एक समान संक्षिप्त सुरक्षा मूल्यांकन जारी किया, और ओपनई ने अपनी जीपीटी -4.1 श्रृंखला के लिए किसी भी रिपोर्ट को प्रकाशित नहीं करने के लिए चुना।
एआई सुरक्षा परीक्षण में उच्च मानकों को बनाए रखने और रिपोर्टिंग में उच्च मानकों को बनाए रखने के बारे में नियामकों के लिए Google का आश्वासन स्थिति में दबाव डालता है। दो साल पहले, Google ने अमेरिकी सरकार से वादा किया था कि वह सभी "महत्वपूर्ण" सार्वजनिक एआई मॉडल "के लिए सुरक्षा रिपोर्ट प्रकाशित करें," अन्य देशों के लिए समान प्रतिबद्धताओं के बाद, एआई उत्पादों के आसपास "सार्वजनिक पारदर्शिता" का वादा किया।
सेंटर फॉर डेमोक्रेसी एंड टेक्नोलॉजी में एआई गवर्नेंस के एक वरिष्ठ सलाहकार केविन बैंकस्टन ने एआई सुरक्षा पर स्पोरैडिक और अस्पष्ट रिपोर्टों की प्रवृत्ति को "नीचे से नीचे तक" के रूप में वर्णित किया।
उन्होंने कहा, "उन रिपोर्टों के साथ संयुक्त है कि ओपनआईएआई जैसी प्रतिस्पर्धी प्रयोगशालाओं ने महीनों से दिनों तक रिलीज होने से पहले अपने सुरक्षा परीक्षण के समय को कम कर दिया है, Google के शीर्ष एआई मॉडल के लिए यह अल्प दस्तावेज एआई सुरक्षा और पारदर्शिता पर नीचे की दौड़ की एक परेशान कहानी बताता है क्योंकि कंपनियां अपने मॉडल को बाजार में ले जाती हैं," उन्होंने कहा।
Google ने कहा है कि, हालांकि अपनी तकनीकी रिपोर्टों में विस्तृत नहीं है, यह उनकी रिलीज़ होने से पहले मॉडल के लिए सुरक्षा परीक्षण और "प्रतिकूल लाल टीमिंग" करता है।
12:58 बजे प्रशांत पर 4/22 अपडेट किया गया: Google के FSF के लिए तकनीकी रिपोर्ट के संदर्भ के आसपास संशोधित भाषा।
संबंधित लेख
Google’s latest AI model report lacks key safety details, experts say
On Thursday, weeks after launching its latest and most advanced AI model, Gemini 2.5 Pro, Google released a technical report detailing the results of its internal safety assessments. However, experts have criticized the report for its lack of detail, making it challenging to fully understand the pot
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries
Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
DeepMind CEO Demis Hassabis Announces Future Integration of Google's Gemini and Veo AI Models
In a recent episode of the podcast Possible, co-hosted by LinkedIn co-founder Reid Hoffman, Google DeepMind CEO Demis Hassabis shared some exciting news about Google's plans. He revealed that Google is looking to merge its Gemini AI models with the Veo video-generating models. This fusion aims to en
सूचना (0)
0/200






गुरुवार को, अपने नवीनतम और सबसे उन्नत एआई मॉडल, मिथुन 2.5 प्रो को लॉन्च करने के हफ्तों बाद, Google ने अपने आंतरिक सुरक्षा आकलन के परिणामों का विवरण देते हुए एक तकनीकी रिपोर्ट जारी की। हालांकि, विशेषज्ञों ने इसके विस्तार की कमी के लिए रिपोर्ट की आलोचना की है, जिससे मॉडल से जुड़े संभावित जोखिमों को पूरी तरह से समझना चुनौतीपूर्ण है।
एआई दुनिया में तकनीकी रिपोर्टें महत्वपूर्ण हैं, इनसाइट्स की पेशकश करते हैं - भले ही वे कभी -कभी अप्रभावी हों - जो कंपनियां आमतौर पर सार्वजनिक रूप से साझा नहीं कर सकती हैं। इन रिपोर्टों को आम तौर पर एआई समुदाय द्वारा स्वतंत्र अनुसंधान को बढ़ावा देने और सुरक्षा मूल्यांकन को बढ़ाने के वास्तविक प्रयासों के रूप में देखा जाता है।
सुरक्षा रिपोर्टिंग के लिए Google का दृष्टिकोण उसके कुछ प्रतियोगियों से अलग है। एक मॉडल "प्रायोगिक" चरण से परे जाने के बाद कंपनी केवल तकनीकी रिपोर्ट प्रकाशित करती है। इसके अलावा, Google इन रिपोर्टों से कुछ "खतरनाक क्षमता" मूल्यांकन परिणामों को छोड़ देता है, उन्हें एक अलग ऑडिट के लिए बचत करता है।
इसके बावजूद, कई विशेषज्ञों ने Gemini 2.5 Pro रिपोर्ट के साथ TechCrunch को निराशा व्यक्त की, जो Google के प्रस्तावित फ्रंटियर सेफ्टी फ्रेमवर्क (FSF) के अपने स्केंट कवरेज को इंगित करता है। Google ने पिछले साल FSF का अनावरण किया, जिसका उद्देश्य भविष्य की AI क्षमताओं को इंगित करना था, जिससे "गंभीर नुकसान हो सकता है।"
इंस्टीट्यूट फॉर एआई पॉलिसी एंड स्ट्रेटेजी के सह-संस्थापक पीटर वाइल्डफोर्ड ने कहा, "यह रिपोर्ट बहुत विरल है, जिसमें न्यूनतम जानकारी शामिल है, और मॉडल के पहले से ही सार्वजनिक किए जाने के हफ्तों बाद जारी किया गया था।" "यह सत्यापित करना असंभव है कि क्या Google अपनी सार्वजनिक प्रतिबद्धताओं के लिए रह रहा है और इस प्रकार उनके मॉडल की सुरक्षा और सुरक्षा का आकलन करना असंभव है।"
सिक्योर एआई प्रोजेक्ट के सह-संस्थापक थॉमस वुडसाइड ने मिथुन 2.5 प्रो के लिए रिपोर्ट जारी करने की बात स्वीकार की, लेकिन समय पर पूरक सुरक्षा मूल्यांकन प्रदान करने के लिए Google के समर्पण पर सवाल उठाया। उन्होंने कहा कि Google ने अंतिम बार जून 2024 में खतरनाक क्षमता परीक्षण के परिणाम प्रकाशित किए थे, उस वर्ष के फरवरी में घोषित एक मॉडल के लिए।
चिंताओं को जोड़ते हुए, Google ने अभी तक मिथुन 2.5 फ्लैश के लिए एक रिपोर्ट जारी नहीं की है, जो पिछले सप्ताह घोषित एक छोटा, अधिक कुशल मॉडल है। एक प्रवक्ता ने टेकक्रंच को सूचित किया कि फ्लैश के लिए एक रिपोर्ट "जल्द ही आ रही है।"
"मुझे उम्मीद है कि यह Google से अधिक लगातार अपडेट प्रकाशित करने के लिए एक वादा है," वुडसाइड ने TechCrunch को बताया। "उन अपडेट में उन मॉडलों के मूल्यांकन के परिणाम शामिल होने चाहिए जिन्हें सार्वजनिक रूप से अभी तक तैनात नहीं किया गया है, क्योंकि वे मॉडल भी गंभीर जोखिम पैदा कर सकते हैं।"
जबकि Google मॉडल के लिए मानकीकृत रिपोर्टों का प्रस्ताव करने वाले पहले AI लैब्स में से था, यह पारदर्शिता की कमी के लिए आलोचना का सामना करने में अकेला नहीं है। मेटा ने अपने नए लामा 4 ओपन मॉडल के लिए एक समान संक्षिप्त सुरक्षा मूल्यांकन जारी किया, और ओपनई ने अपनी जीपीटी -4.1 श्रृंखला के लिए किसी भी रिपोर्ट को प्रकाशित नहीं करने के लिए चुना।
एआई सुरक्षा परीक्षण में उच्च मानकों को बनाए रखने और रिपोर्टिंग में उच्च मानकों को बनाए रखने के बारे में नियामकों के लिए Google का आश्वासन स्थिति में दबाव डालता है। दो साल पहले, Google ने अमेरिकी सरकार से वादा किया था कि वह सभी "महत्वपूर्ण" सार्वजनिक एआई मॉडल "के लिए सुरक्षा रिपोर्ट प्रकाशित करें," अन्य देशों के लिए समान प्रतिबद्धताओं के बाद, एआई उत्पादों के आसपास "सार्वजनिक पारदर्शिता" का वादा किया।
सेंटर फॉर डेमोक्रेसी एंड टेक्नोलॉजी में एआई गवर्नेंस के एक वरिष्ठ सलाहकार केविन बैंकस्टन ने एआई सुरक्षा पर स्पोरैडिक और अस्पष्ट रिपोर्टों की प्रवृत्ति को "नीचे से नीचे तक" के रूप में वर्णित किया।
उन्होंने कहा, "उन रिपोर्टों के साथ संयुक्त है कि ओपनआईएआई जैसी प्रतिस्पर्धी प्रयोगशालाओं ने महीनों से दिनों तक रिलीज होने से पहले अपने सुरक्षा परीक्षण के समय को कम कर दिया है, Google के शीर्ष एआई मॉडल के लिए यह अल्प दस्तावेज एआई सुरक्षा और पारदर्शिता पर नीचे की दौड़ की एक परेशान कहानी बताता है क्योंकि कंपनियां अपने मॉडल को बाजार में ले जाती हैं," उन्होंने कहा।
Google ने कहा है कि, हालांकि अपनी तकनीकी रिपोर्टों में विस्तृत नहीं है, यह उनकी रिलीज़ होने से पहले मॉडल के लिए सुरक्षा परीक्षण और "प्रतिकूल लाल टीमिंग" करता है।
12:58 बजे प्रशांत पर 4/22 अपडेट किया गया: Google के FSF के लिए तकनीकी रिपोर्ट के संदर्भ के आसपास संशोधित भाषा।











