दीपमाइंड का एजीआई सुरक्षा पेपर स्केप्टिक्स को बोलने में विफल रहता है

बुधवार को, Google DeepMind ने AGI सुरक्षा के लिए अपने दृष्टिकोण पर 145 पेज का विस्तृत पेपर जारी किया। AGI, या कृत्रिम सामान्य बुद्धिमत्ता, वह AI है जो मानव के किसी भी कार्य को कर सकता है, और यह AI जगत में चर्चा का विषय है। कुछ लोग इसे मात्र कल्पना मानते हैं, जबकि Anthropic जैसे बड़े नामों का मानना है कि यह जल्द ही आ सकता है और अगर हम सुरक्षा उपायों को ठीक नहीं करते तो गंभीर समस्याएँ पैदा हो सकती हैं।
DeepMind का पेपर, सह-संस्थापक Shane Legg की मदद से लिखा गया, अनुमान लगाता है कि AGI 2030 तक आ सकता है और इससे "गंभीर नुकसान" हो सकता है। वे इसे स्पष्ट रूप से नहीं बताते, लेकिन "अस्तित्वगत जोखिम" जैसे डरावने शब्दों का उपयोग करते हैं जो "मानवता को स्थायी रूप से नष्ट" कर सकते हैं।
"हम दशक के अंत से पहले एक असाधारण AGI देखने की उम्मीद कर रहे हैं," लेखकों ने उल्लेख किया। "असाधारण AGI वह प्रणाली है जो गैर-भौतिक कार्यों, जैसे नई कौशल सीखने जैसी जटिल चीजों में, शीर्ष 1% वयस्कों के कौशल से मेल खा सकती है।"
पेपर शुरू से ही DeepMind के AGI जोखिम प्रबंधन के तरीके की तुलना Anthropic और OpenAI से करता है। यह कहता है कि Anthropic "मजबूत प्रशिक्षण, निगरानी और सुरक्षा" पर उतना जोर नहीं देता, जबकि OpenAI "स्वचालित" AI सुरक्षा अनुसंधान, जिसे संरेखण अनुसंधान कहा जाता है, पर केंद्रित है।
पेपर सुपरइंटेलिजेंट AI — जो किसी भी मानव से बेहतर काम करता हो — के विचार पर भी कुछ आलोचना करता है। (OpenAI ने हाल ही में कहा कि वे AGI से सुपरइंटेलिजेंस पर ध्यान केंद्रित कर रहे हैं।) बिना किसी बड़े नए सफलता के, DeepMind के लेखक इस बात पर यकीन नहीं करते कि सुपरइंटेलिजेंट सिस्टम जल्द ही आएंगे — या शायद कभी नहीं।
लेकिन उनका मानना है कि वर्तमान तरीके "पुनरावर्ती AI सुधार" की ओर ले जा सकते हैं, जहाँ AI स्वयं AI अनुसंधान करके और भी स्मार्ट AI सिस्टम बनाता है। और यह, वे चेतावनी देते हैं, बहुत खतरनाक हो सकता है।
कुल मिलाकर, पेपर सुझाव देता है कि हमें AGI से बुरे तत्वों को दूर रखने के तरीके विकसित करने चाहिए, AI सिस्टम क्या कर रहे हैं इसे बेहतर समझना चाहिए, और AI के संचालन के वातावरण को और सुरक्षित करना चाहिए। वे स्वीकार करते हैं कि इनमें से कई विचार अभी प्रारंभिक चरण में हैं और इनमें "खुले अनुसंधान समस्याएँ" हैं, लेकिन वे हमें उन सुरक्षा मुद्दों को नजरअंदाज न करने की सलाह देते हैं जो हमारे सामने आ सकते हैं।
"AGI अद्भुत लाभ ला सकता है या गंभीर नुकसान," लेखक बताते हैं। "इसलिए, AGI को सही तरीके से बनाने के लिए, शीर्ष AI डेवलपर्स के लिए पहले से योजना बनाना और उन बड़े जोखिमों से निपटना महत्वपूर्ण है।"
हालांकि, हर कोई पेपर के विचारों से सहमत नहीं है।
AI Now Institute की मुख्य AI वैज्ञानिक Heidy Khlaaf ने TechCrunch को बताया कि वह मानती हैं कि AGI एक बहुत अस्पष्ट अवधारणा है जिसे "वैज्ञानिक रूप से कठोरता से मूल्यांकन" नहीं किया जा सकता। अल्बर्टा विश्वविद्यालय के एक अन्य AI शोधकर्ता Matthew Guzdial ने कहा कि उन्हें यकीन नहीं है कि पुनरावर्ती AI सुधार अभी संभव है।
"पुनरावर्ती सुधार वह है जिस पर बुद्धिमत्ता एकवचन तर्क आधारित हैं," Guzdial ने TechCrunch को बताया, "लेकिन हमें कभी कोई सबूत नहीं मिला कि यह वास्तव में काम करता है।"
ऑक्सफोर्ड में प्रौद्योगिकी और नियमन का अध्ययन करने वाली Sandra Wachter एक और तत्काल चिंता की ओर इशारा करती हैं: AI का "गलत आउटपुट" के साथ स्वयं को सुदृढ़ करना।
"ऑनलाइन अधिक से अधिक AI-जनित सामग्री और वास्तविक डेटा के प्रतिस्थापित होने के साथ, मॉडल अपने ही आउटपुट से सीख रहे हैं जो गलतियों या भ्रांतियों से भरे हैं," उन्होंने TechCrunch को बताया। "चूंकि चैटबॉट्स का उपयोग ज्यादातर खोज और सत्य खोजने के लिए किया जाता है, हमें हमेशा गलत जानकारी दिए जाने का जोखिम रहता है जो बहुत विश्वसनीय तरीके से प्रस्तुत की जाती है।"
जितना विस्तृत है, DeepMind का पेपर शायद AGI की संभावना और किन AI सुरक्षा मुद्दों पर अभी सबसे ज्यादा ध्यान देने की जरूरत है, इस पर बहस को खत्म नहीं करेगा।
संबंधित लेख
OpenAI अपनी गैर-लाभकारी जड़ों की पुन: पुष्टि करता है प्रमुख कॉर्पोरेट पुनर्गठन में
OpenAI अपनी गैर-लाभकारी मिशन में दृढ़ रहता है क्योंकि यह एक महत्वपूर्ण कॉर्पोरेट पुनर्गठन से गुजर रहा है, विकास को नैतिक AI विकास के प्रति अपनी प्रतिबद्धता के साथ संतुलित करता है।सीईओ सैम ऑल्टमैन ने क
Google ने रोबोट्स के लिए ऑन-डिवाइस Gemini AI मॉडल लॉन्च किया
Google DeepMind ने ऑफलाइन रोबोट नियंत्रण के लिए Gemini Robotics On-Device का अनावरण कियाGoogle DeepMind ने रोबोटिक्स क्षेत्र में एक रोमांचक अपडेट जारी किया है—Gemini Robotics On-Device, एक नया भाषा मॉ
नई अध्ययन से पता चलता है कि LLM वास्तव में कितना डेटा याद करते हैं
AI मॉडल वास्तव में कितना याद करते हैं? नया शोध आश्चर्यजनक जानकारी देता हैहम सभी जानते हैं कि बड़े भाषा मॉडल (LLM) जैसे ChatGPT, Claude, और Gemini को किताबों, वेबसाइटों, कोड और यहां तक कि चित्रों और ऑड
सूचना (47)
0/200
CarlPerez
11 अगस्त 2025 4:31:00 पूर्वाह्न IST
This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!
0
ArthurYoung
9 अगस्त 2025 4:30:59 अपराह्न IST
DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔
0
GregoryRodriguez
22 अप्रैल 2025 9:28:08 अपराह्न IST
DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.
0
GeorgeJones
20 अप्रैल 2025 6:05:58 अपराह्न IST
DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.
0
CharlesLee
18 अप्रैल 2025 8:54:35 अपराह्न IST
O artigo de segurança de AGI da DeepMind? Honestamente, não me convenceu em nada 🤔. 145 páginas e ainda estou cético. AGI parece ficção científica para mim, mas, ei, se eles conseguirem torná-lo seguro, estou a favor! Talvez na próxima eles tenham algo mais sólido.
0
CarlTaylor
18 अप्रैल 2025 11:56:53 पूर्वाह्न IST
Tentei ler o papel de segurança de AGI do DeepMind, mas é tão denso! 😵💫 Parece que estão tentando nos convencer de que AGI é real, mas ainda não estou convencido. Talvez se tornasse mais digerível, eu ficaria mais convencido. Ainda assim, parabéns pelo esforço!
0
बुधवार को, Google DeepMind ने AGI सुरक्षा के लिए अपने दृष्टिकोण पर 145 पेज का विस्तृत पेपर जारी किया। AGI, या कृत्रिम सामान्य बुद्धिमत्ता, वह AI है जो मानव के किसी भी कार्य को कर सकता है, और यह AI जगत में चर्चा का विषय है। कुछ लोग इसे मात्र कल्पना मानते हैं, जबकि Anthropic जैसे बड़े नामों का मानना है कि यह जल्द ही आ सकता है और अगर हम सुरक्षा उपायों को ठीक नहीं करते तो गंभीर समस्याएँ पैदा हो सकती हैं।
DeepMind का पेपर, सह-संस्थापक Shane Legg की मदद से लिखा गया, अनुमान लगाता है कि AGI 2030 तक आ सकता है और इससे "गंभीर नुकसान" हो सकता है। वे इसे स्पष्ट रूप से नहीं बताते, लेकिन "अस्तित्वगत जोखिम" जैसे डरावने शब्दों का उपयोग करते हैं जो "मानवता को स्थायी रूप से नष्ट" कर सकते हैं।
"हम दशक के अंत से पहले एक असाधारण AGI देखने की उम्मीद कर रहे हैं," लेखकों ने उल्लेख किया। "असाधारण AGI वह प्रणाली है जो गैर-भौतिक कार्यों, जैसे नई कौशल सीखने जैसी जटिल चीजों में, शीर्ष 1% वयस्कों के कौशल से मेल खा सकती है।"
पेपर शुरू से ही DeepMind के AGI जोखिम प्रबंधन के तरीके की तुलना Anthropic और OpenAI से करता है। यह कहता है कि Anthropic "मजबूत प्रशिक्षण, निगरानी और सुरक्षा" पर उतना जोर नहीं देता, जबकि OpenAI "स्वचालित" AI सुरक्षा अनुसंधान, जिसे संरेखण अनुसंधान कहा जाता है, पर केंद्रित है।
पेपर सुपरइंटेलिजेंट AI — जो किसी भी मानव से बेहतर काम करता हो — के विचार पर भी कुछ आलोचना करता है। (OpenAI ने हाल ही में कहा कि वे AGI से सुपरइंटेलिजेंस पर ध्यान केंद्रित कर रहे हैं।) बिना किसी बड़े नए सफलता के, DeepMind के लेखक इस बात पर यकीन नहीं करते कि सुपरइंटेलिजेंट सिस्टम जल्द ही आएंगे — या शायद कभी नहीं।
लेकिन उनका मानना है कि वर्तमान तरीके "पुनरावर्ती AI सुधार" की ओर ले जा सकते हैं, जहाँ AI स्वयं AI अनुसंधान करके और भी स्मार्ट AI सिस्टम बनाता है। और यह, वे चेतावनी देते हैं, बहुत खतरनाक हो सकता है।
कुल मिलाकर, पेपर सुझाव देता है कि हमें AGI से बुरे तत्वों को दूर रखने के तरीके विकसित करने चाहिए, AI सिस्टम क्या कर रहे हैं इसे बेहतर समझना चाहिए, और AI के संचालन के वातावरण को और सुरक्षित करना चाहिए। वे स्वीकार करते हैं कि इनमें से कई विचार अभी प्रारंभिक चरण में हैं और इनमें "खुले अनुसंधान समस्याएँ" हैं, लेकिन वे हमें उन सुरक्षा मुद्दों को नजरअंदाज न करने की सलाह देते हैं जो हमारे सामने आ सकते हैं।
"AGI अद्भुत लाभ ला सकता है या गंभीर नुकसान," लेखक बताते हैं। "इसलिए, AGI को सही तरीके से बनाने के लिए, शीर्ष AI डेवलपर्स के लिए पहले से योजना बनाना और उन बड़े जोखिमों से निपटना महत्वपूर्ण है।"
हालांकि, हर कोई पेपर के विचारों से सहमत नहीं है।
AI Now Institute की मुख्य AI वैज्ञानिक Heidy Khlaaf ने TechCrunch को बताया कि वह मानती हैं कि AGI एक बहुत अस्पष्ट अवधारणा है जिसे "वैज्ञानिक रूप से कठोरता से मूल्यांकन" नहीं किया जा सकता। अल्बर्टा विश्वविद्यालय के एक अन्य AI शोधकर्ता Matthew Guzdial ने कहा कि उन्हें यकीन नहीं है कि पुनरावर्ती AI सुधार अभी संभव है।
"पुनरावर्ती सुधार वह है जिस पर बुद्धिमत्ता एकवचन तर्क आधारित हैं," Guzdial ने TechCrunch को बताया, "लेकिन हमें कभी कोई सबूत नहीं मिला कि यह वास्तव में काम करता है।"
ऑक्सफोर्ड में प्रौद्योगिकी और नियमन का अध्ययन करने वाली Sandra Wachter एक और तत्काल चिंता की ओर इशारा करती हैं: AI का "गलत आउटपुट" के साथ स्वयं को सुदृढ़ करना।
"ऑनलाइन अधिक से अधिक AI-जनित सामग्री और वास्तविक डेटा के प्रतिस्थापित होने के साथ, मॉडल अपने ही आउटपुट से सीख रहे हैं जो गलतियों या भ्रांतियों से भरे हैं," उन्होंने TechCrunch को बताया। "चूंकि चैटबॉट्स का उपयोग ज्यादातर खोज और सत्य खोजने के लिए किया जाता है, हमें हमेशा गलत जानकारी दिए जाने का जोखिम रहता है जो बहुत विश्वसनीय तरीके से प्रस्तुत की जाती है।"
जितना विस्तृत है, DeepMind का पेपर शायद AGI की संभावना और किन AI सुरक्षा मुद्दों पर अभी सबसे ज्यादा ध्यान देने की जरूरत है, इस पर बहस को खत्म नहीं करेगा।



This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!




DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔




DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.




DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.




O artigo de segurança de AGI da DeepMind? Honestamente, não me convenceu em nada 🤔. 145 páginas e ainda estou cético. AGI parece ficção científica para mim, mas, ei, se eles conseguirem torná-lo seguro, estou a favor! Talvez na próxima eles tenham algo mais sólido.




Tentei ler o papel de segurança de AGI do DeepMind, mas é tão denso! 😵💫 Parece que estão tentando nos convencer de que AGI é real, mas ainda não estou convencido. Talvez se tornasse mais digerível, eu ficaria mais convencido. Ainda assim, parabéns pelo esforço!












