विकल्प
घर समाचार दीपमाइंड का एजीआई सुरक्षा पेपर स्केप्टिक्स को बोलने में विफल रहता है

दीपमाइंड का एजीआई सुरक्षा पेपर स्केप्टिक्स को बोलने में विफल रहता है

रिलीज़ की तारीख रिलीज़ की तारीख 10 अप्रैल 2025
लेखक लेखक KevinBrown
दृश्य दृश्य 33

दीपमाइंड का एजीआई सुरक्षा पेपर स्केप्टिक्स को बोलने में विफल रहता है

बुधवार को, Google DeepMind ने AGI सुरक्षा के लिए अपने दृष्टिकोण में गहराई से 145-पृष्ठ के कागज को गिरा दिया। एजीआई, या आर्टिफिशियल जनरल इंटेलिजेंस, एआई की तरह है जो किसी भी कार्य को एक मानव कर सकता है, और यह एआई दुनिया में एक गर्म विषय है। कुछ लोगों को लगता है कि यह सिर्फ एक फंतासी है, जबकि अन्य, एंथ्रोपिक में बड़े शॉट्स की तरह, विश्वास करते हैं कि यह मोड़ के चारों ओर सही है और अगर हमें हमारे सुरक्षा उपायों को जांच में नहीं मिलता है तो कुछ गंभीर परेशानी हो सकती है। डीपमाइंड के पेपर, सह-संस्थापक शेन लेग की मदद से, एजीआई को 2030 तक दिखाया जा सकता है और उन्हें "गंभीर नुकसान" कहा जा सकता है। वे इसे बिल्कुल नहीं बताते हैं, लेकिन वे "अस्तित्वगत जोखिम" जैसे डरावने वाक्यांशों के आसपास टॉस करते हैं जो "स्थायी रूप से मानवता को नष्ट कर सकते हैं।" "हम इस दशक से पहले एक असाधारण एजीआई को देखने पर दांव लगा रहे हैं," लेखक नोट करते हैं। "एक असाधारण एजीआई एक ऐसी प्रणाली है जो गैर-भौतिक कार्यों के एक समूह पर शीर्ष 1% वयस्कों के कौशल से मेल खा सकती है, जिसमें नए कौशल सीखने जैसे मुश्किल सामान शामिल हैं।" शुरुआत से ही, पेपर ने एजीआई जोखिम को संभालने के डीपमाइंड के तरीके की तुलना की है कि यह कैसे एंथ्रोपिक और ओपनईआई है। यह कहता है कि एंथ्रोपिक "मजबूत प्रशिक्षण, निगरानी और सुरक्षा" पर उतना बड़ा नहीं है, जबकि Openai के सभी "स्वचालित" AI सुरक्षा अनुसंधान के एक प्रकार के "स्वचालित" के बारे में संरेखण अनुसंधान कहा जाता है। कागज भी अधीक्षक एआई - एआई के विचार पर कुछ छाया फेंकता है जो किसी भी मानव की तुलना में नौकरियों में बेहतर है। । लेकिन उन्हें लगता है कि यह संभव है कि हमारे वर्तमान तरीके "पुनरावर्ती एआई सुधार" हो सकते हैं, जहां एआई अपने एआई अनुसंधान को भी स्मार्ट एआई सिस्टम बनाने के लिए करता है। और, वे चेतावनी देते हैं, सुपर खतरनाक हो सकते हैं। कुल मिलाकर, पेपर से पता चलता है कि हमें खराब अभिनेताओं को एजीआई से दूर रखने के तरीके विकसित करने की आवश्यकता है, बेहतर समझें कि एआई सिस्टम क्या हैं, और उन वातावरणों को बनाते हैं जहां एआई अधिक सुरक्षित संचालित करता है। वे मानते हैं कि इनमें से बहुत से विचार अभी भी अपने शुरुआती चरणों में हैं और "खुली अनुसंधान समस्याएं" हैं, लेकिन वे हमसे आग्रह करते हैं कि वे उन सुरक्षा मुद्दों को अनदेखा न करें जो हमारे रास्ते में आ रहे हैं। "एजीआई अद्भुत लाभ या गंभीर नुकसान ला सकता है," लेखक बताते हैं। "तो, एजीआई को सही तरीके से बनाने के लिए, यह शीर्ष एआई डेवलपर्स के लिए आगे की योजना बनाने और उन बड़े जोखिमों से निपटने के लिए महत्वपूर्ण है।" पेपर के विचारों के साथ हर कोई बोर्ड पर नहीं है, हालांकि। गैर -लाभकारी एआई नाउ इंस्टीट्यूट के मुख्य एआई वैज्ञानिक हेइडी खलाफ ने कहा कि TechCrunch ने बताया कि उन्हें लगता है कि AGI बहुत अधिक अवधारणा है, जिसे "वैज्ञानिक रूप से सख्ती से मूल्यांकन किया गया है।" एक अन्य एआई शोधकर्ता, अल्बर्टा विश्वविद्यालय के मैथ्यू गुज़दियल ने कहा कि वह आश्वस्त नहीं है कि पुनरावर्ती एआई सुधार अभी उल्लेखनीय है। "पुनरावर्ती सुधार वह है जो खुफिया विलक्षणता तर्क पर आधारित है," गुज़डियल ने TechCrunch को बताया, "लेकिन हमने कभी भी कोई सबूत नहीं देखा है कि यह वास्तव में काम करता है।" सैंड्रा वाचर, जो ऑक्सफोर्ड में तकनीक और विनियमन का अध्ययन करते हैं, एक अधिक दबाव वाली चिंता बताते हैं: एआई खुद को "गलत आउटपुट" के साथ मजबूत करता है। उन्होंने कहा, "अधिक से अधिक एआई-जनित सामग्री ऑनलाइन और वास्तविक डेटा को प्रतिस्थापित करने के साथ, मॉडल अपने स्वयं के आउटपुट से सीख रहे हैं जो अशुद्धि या मतिभ्रम से भरे हुए हैं," उन्होंने TechCrunch को बताया। "चूंकि चैटबॉट्स का उपयोग ज्यादातर सच्चाई को खोजने और खोजने के लिए किया जाता है, इसलिए हमें हमेशा झूठी जानकारी दी जा रही है जो बहुत ही ठोस तरीके से प्रस्तुत की जाती है।" जैसा कि यह पूरी तरह से है, डीपमाइंड का पेपर शायद इस बात पर बहस समाप्त नहीं करेगा कि एजीआई वास्तव में कितनी संभावना है - और एआई सुरक्षा के मुद्दों को अभी सबसे अधिक ध्यान देने की आवश्यकता है।
संबंधित लेख
Openai स्ट्राइक्स बैक: एआई प्रतियोगी को कम करने के लिए कथित प्रयासों के लिए एलोन मस्क ने कहा Openai स्ट्राइक्स बैक: एआई प्रतियोगी को कम करने के लिए कथित प्रयासों के लिए एलोन मस्क ने कहा Openai ने अपने सह-संस्थापक, एलोन मस्क और उनकी प्रतिस्पर्धी AI कंपनी, XAI के खिलाफ एक भयंकर कानूनी पलटवार लॉन्च किया है। अपने चल रहे झगड़े के एक नाटकीय वृद्धि में, ओपनई ने कस्तूरी पर आरोप लगाया कि वह उस कंपनी को कम करने में मदद करने के लिए एक "अथक" और "दुर्भावनापूर्ण" अभियान को छेड़ने का आरोप लगाता है। अदालत के अनुसार डी
रिटर्न में तेजी लाने का कानून समझाया गया: एजीआई विकास का मार्ग रिटर्न में तेजी लाने का कानून समझाया गया: एजीआई विकास का मार्ग हाल ही में एक साक्षात्कार में, एलोन मस्क ने आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) के आगमन के लिए समयरेखा पर अपने आशावादी दृष्टिकोण को साझा किया, यह बताते हुए कि यह *"3 से 6 साल" *के रूप में जल्द ही हो सकता है। इसी तरह, Google के दीपमाइंड के सीईओ, डेमिस हसबिस ने वॉल स्ट्रीट जर्नल के फ्यूचर ऑफ एवरीथिंग फेस्टी में व्यक्त किया
Google का मानना ​​है कि AI इलेक्ट्रिकल ग्रिड की नौकरशाही को सरल बना सकता है Google का मानना ​​है कि AI इलेक्ट्रिकल ग्रिड की नौकरशाही को सरल बना सकता है तकनीकी दुनिया एक संभावित शक्ति संकट पर चिंता के साथ गुलजार है, एआई से आसमान छूती मांग से ईंधन। फिर भी, इस चिंता के बीच, आशा की एक झलक है: नई शक्ति क्षमता की एक बड़ी मात्रा, टेरावाट में मापा गया, बस ग्रिड से जुड़े होने की प्रतीक्षा कर रहा है। कुंजी? के माध्यम से काटने
सूचना (45)
DouglasHarris
DouglasHarris 10 अप्रैल 2025 8:10:06 पूर्वाह्न GMT

DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!

WilliamYoung
WilliamYoung 10 अप्रैल 2025 8:10:06 पूर्वाह्न GMT

ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!

SamuelEvans
SamuelEvans 10 अप्रैल 2025 8:10:06 पूर्वाह्न GMT

딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!

NicholasThomas
NicholasThomas 10 अप्रैल 2025 8:10:06 पूर्वाह्न GMT

O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!

KennethJones
KennethJones 10 अप्रैल 2025 8:10:06 पूर्वाह्न GMT

¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!

JoseAdams
JoseAdams 10 अप्रैल 2025 11:27:37 पूर्वाह्न GMT

DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!

शीर्ष समाचार
यूएस डेटा सेंटर के लिए ट्वीक्स 76 GW नई बिजली क्षमता को अनलॉक कर सकते हैं नोटबुकल्म वेब स्रोत खोज सुविधा जोड़ता है वाइल्डफायर डिटेक्शन में एक सफलता: कैसे उपग्रहों का एक नया नक्षत्र पहले छोटे जंगल की आग का पता लगा सकता है कंबियम का एआई कचरे की लकड़ी को लकड़ी में बदल देता है एआई कंप्यूटिंग 2026 तक कई एनवाईसीएस की शक्ति का उपभोग करने के लिए, संस्थापक कहते हैं एनवीडिया के सीईओ ने दीपसेक के बाजार प्रभाव पर गलतफहमी को स्पष्ट किया Openai की AI ने paywalled O'Reilly पुस्तकों पर प्रशिक्षित किया, शोधकर्ताओं का दावा है AI एक अधिक कुशल यूके सार्वजनिक क्षेत्र को अनलॉक करने की कुंजी हो सकती है Google.org ने सरकारी कर्मचारियों के लिए $ 15M AI प्रशिक्षण अनुदान का अनावरण किया डीप कॉगिटो के एलएलएम आईडीए का उपयोग करते हुए समान आकार के मॉडल को बेहतर बनाते हैं
अधिक
शीर्ष पर वापस
OR