एआई नेता एजीआई पर चर्चा करते हैं: वास्तविकता में आधारित
9 मई 2025
DanielThomas
0

सैन फ्रांसिस्को में बिज़नेस लीडर्स के साथ हाल ही में एक डिनर पर, मैंने एक सवाल उठाया जिससे कमरा जैसे ठंडा पड़ गया: क्या आज की AI कभी मानव जैसी बुद्धिमत्ता या उससे आगे पहुँच सकती है? यह एक ऐसा विषय है जिस पर आपकी उम्मीद से ज्यादा बहस होती है।
2025 में, टेक सीईओ लार्ज लैंग्वेज मॉडल्स (एलएलएम) जैसे ChatGPT और Gemini के पीछे वाले को लेकर आशावाद से भरे हुए हैं। वे मानते हैं कि ये मॉडल जल्द ही मानव स्तर या यहाँ तक कि सुपर-ह्यूमन बुद्धिमत्ता तक पहुँच सकते हैं। उदाहरण के लिए, Anthropic के डारियो अमोडेई ने निबंध लिखे हैं जिसमें उन्होंने सुझाव दिया है कि 2026 तक हम विभिन्न क्षेत्रों में नोबेल पुरस्कार विजेताओं से भी स्मार्टर AI देख सकते हैं। इस बीच, OpenAI के सैम ऑल्टमैन ने "सुपरइंटेलिजेंट" AI बनाने के तरीके के बारे में जानने का दावा किया है, भविष्यवाणी की है कि यह वैज्ञानिक खोज को तेज कर सकता है।
लेकिन हर कोई इस आशावादी तस्वीर को नहीं खरीद रहा है। कुछ AI लीडर्स एलएलएम के AGI तक पहुँचने, छोड़िए तो सुपरइंटेलिजेंस तक, के बारे में संदेह करते हैं, बिना महत्वपूर्ण ब्रेकथ्रू के। ये संदेही, जो पहले चुप थे, अब अधिक मुखर हो रहे हैं।
AI समुदाय में संदेहवाद
हगिंग फेस के सह-संस्थापक और मुख्य विज्ञान अधिकारी, थॉमस वुल्फ को लीजिए। एक हालिया लेख में, उन्होंने अमोडेई के दृष्टिकोण के कुछ हिस्सों को "सबसे अच्छे मामले में भी आशावादी सोच" कहा है। अपने सांख्यिकीय और क्वांटम भौतिकी में पीएचडी का हवाला देते हुए, वुल्फ का तर्क है कि नोबेल स्तर की ब्रेकथ्रू नई सवाल पूछने से आती हैं, केवल ज्ञात सवालों के जवाब देने से नहीं—जो कि AI अच्छा करती है लेकिन नई विचारों के लिए महान नहीं है।
"मुझे यह 'एंस्टीन मॉडल' देखना बहुत पसंद आएगा, लेकिन हमें यह जानने के लिए विवरणों में उतरना होगा कि वहाँ कैसे पहुँचा जाए," वुल्फ ने TechCrunch के साथ एक साक्षात्कार में साझा किया। उन्होंने अपना लेख इसलिए लिखा क्योंकि उन्हें लगा कि AGI के आसपास का हाइप इसे हासिल करने के लिए गंभीर चर्चा की जरूरत को छाया में डाल रहा है। वुल्फ दुनिया को बदलने वाले AI का भविष्य देखते हैं, लेकिन जरूरी नहीं कि वह मानव-स्तर की बुद्धिमत्ता या सुपरइंटेलिजेंस तक पहुँचे।
AI समुदाय अक्सर AGI में विश्वास करने वालों और न करने वालों में विभाजित होता है, बाद वालों को कभी-कभी "एंटी-टेक्नोलॉजी" या सिर्फ निराशावादी माना जाता है। हालांकि, वुल्फ खुद को एक "जानकार आशावादी" मानते हैं, AI की प्रगति को आगे बढ़ाते हुए वास्तविकता में जमे रहते हैं।
AI बहस में अन्य आवाज़ें
Google DeepMind के सीईओ, डेमिस हसाबिस ने कथित तौर पर अपनी टीम को बताया कि AGI अभी भी एक दशक दूर हो सकती है, AI के अभी भी कई कार्यों को संभालने में असमर्थता की ओर इशारा करते हुए। Meta के मुख्य AI वैज्ञानिक, यान लेकुन ने भी एलएलएम के AGI हासिल करने के बारे में संदेह व्यक्त किया है, Nvidia GTC में विचार को "बकवास" कहा और सुपरइंटेलिजेंस को समर्थन देने के लिए नए आर्किटेक्चर की मांग की।
OpenAI के पूर्व लीड रिसर्चर और अब Lila Sciences के एक्जीक्यूटिव, केनेथ स्टैनली, उन्नत AI बनाने की बारीकियों पर काम कर रहे हैं। उनकी स्टार्टअप, जिसने हाल ही में 200 मिलियन डॉलर जुटाए हैं, वैज्ञानिक नवाचार को स्वचालित करने पर केंद्रित है। स्टैनली का काम AI की मूल और रचनात्मक विचार उत्पन्न करने की क्षमता में गोता लगाता है—एक क्षेत्र जिसे ओपन-एंडेडनेस के नाम से जाना जाता है।
"मुझे काश मैंने [वुल्फ का] निबंध लिखा होता, क्योंकि यह वास्तव में मेरी भावनाओं को प्रतिबिंबित करता है," स्टैनली ने TechCrunch को बताया। वह वुल्फ से सहमत हैं कि ज्ञान होना स्वतः ही मूल विचारों को नहीं लाता।
AI में रचनात्मकता की भूमिका
स्टैनली मानते हैं कि AGI के लिए रचनात्मकता महत्वपूर्ण है, लेकिन स्वीकार करते हैं कि यह एक कठिन चुनौती है। जबकि आशावादी जैसे अमोडेई AI "रीजनिंग" मॉडल को AGI की ओर एक कदम के रूप में उजागर करते हैं, स्टैनली का तर्क है कि रचनात्मकता के लिए एक अलग प्रकार की बुद्धिमत्ता की आवश्यकता होती है। "रीजनिंग लगभग रचनात्मकता के विपरीत है," उन्होंने समझाया। "रीजनिंग मॉडल एक विशिष्ट लक्ष्य तक पहुँचने पर ध्यान केंद्रित करते हैं, जो रचनात्मकता के लिए आवश्यक अवसरवादी सोच को सीमित कर सकता है।"
स्टैनली सुझाव देते हैं कि वास्तव में बुद्धिमान AI बनाने के लिए, हमें नए विचारों के लिए मानवीय स्वाद को एल्गोरिदमिक रूप से दोहराना होगा। जबकि AI गणित और प्रोग्रामिंग जैसे क्षेत्रों में, जहाँ उत्तर स्पष्ट हैं, उत्कृष्ट है, यह अधिक व्यक्तिपरक, रचनात्मक कार्यों में, जिनका कोई "सही" उत्तर नहीं है, संघर्ष करती है।
"लोग विज्ञान में [व्यक्तिपरता] से दूर हो जाते हैं—यह शब्द लगभग विषैला है," स्टैनली ने नोट किया। "लेकिन हमें [एल्गोरिदमिक रूप से] व्यक्तिपरता से निपटने से कुछ भी नहीं रोकता। यह डेटा स्ट्रीम का ही एक हिस्सा है।"
वह ओपन-एंडेडनेस पर बढ़ते ध्यान से उत्साहित हैं, Lila Sciences, Google DeepMind, और AI स्टार्टअप Sakana के रिसर्च लैब्स इस मुद्दे को हल कर रहे हैं। स्टैनली AI में रचनात्मकता के बारे में अधिक लोगों को बात करते देखते हैं लेकिन मानते हैं कि आगे बहुत काम बाकी है।
AI के यथार्थवादी
वुल्फ और लेकुन को "AI यथार्थवादी" माना जा सकता है: नेता जो AGI और सुपरइंटेलिजेंस के प्रति व्यवहारिक प्रश्नों के साथ आते हैं। उनका उद्देश्य AI की प्रगति को खारिज करना नहीं है, बल्कि AGI और सुपरइंटेलिजेंस तक पहुँचने से AI को रोकने वाले कारकों के बारे में एक व्यापक बातचीत शुरू करना है—और उन चुनौतियों का सामना करना।
संबंधित लेख
OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor
OpenAI has launched a fierce legal counterattack against its co-founder, Elon Musk, and his competing AI company, xAI. In a dramatic escalation of their ongoing feud, OpenAI accuses Musk of waging a "relentless" and "malicious" campaign to undermine the company he helped start.
According to court d
Law of Accelerating Returns Explained: Pathway to AGI Development
In a recent interview, Elon Musk shared his optimistic view on the timeline for the advent of Artificial General Intelligence (AGI), stating it could be as soon as *“3 to 6 years”*. Similarly, Demis Hassabis, CEO of Google's DeepMind, expressed at The Wall Street Journal’s Future of Everything Festi
New AGI Test Proves Challenging, Stumps Majority of AI Models
The Arc Prize Foundation, co-founded by renowned AI researcher François Chollet, recently unveiled a new benchmark called ARC-AGI-2 in a blog post. This test aims to push the boundaries of AI's general intelligence, and so far, it's proving to be a tough nut to crack for most AI models.According to
सूचना (0)
0/200






सैन फ्रांसिस्को में बिज़नेस लीडर्स के साथ हाल ही में एक डिनर पर, मैंने एक सवाल उठाया जिससे कमरा जैसे ठंडा पड़ गया: क्या आज की AI कभी मानव जैसी बुद्धिमत्ता या उससे आगे पहुँच सकती है? यह एक ऐसा विषय है जिस पर आपकी उम्मीद से ज्यादा बहस होती है।
2025 में, टेक सीईओ लार्ज लैंग्वेज मॉडल्स (एलएलएम) जैसे ChatGPT और Gemini के पीछे वाले को लेकर आशावाद से भरे हुए हैं। वे मानते हैं कि ये मॉडल जल्द ही मानव स्तर या यहाँ तक कि सुपर-ह्यूमन बुद्धिमत्ता तक पहुँच सकते हैं। उदाहरण के लिए, Anthropic के डारियो अमोडेई ने निबंध लिखे हैं जिसमें उन्होंने सुझाव दिया है कि 2026 तक हम विभिन्न क्षेत्रों में नोबेल पुरस्कार विजेताओं से भी स्मार्टर AI देख सकते हैं। इस बीच, OpenAI के सैम ऑल्टमैन ने "सुपरइंटेलिजेंट" AI बनाने के तरीके के बारे में जानने का दावा किया है, भविष्यवाणी की है कि यह वैज्ञानिक खोज को तेज कर सकता है।
लेकिन हर कोई इस आशावादी तस्वीर को नहीं खरीद रहा है। कुछ AI लीडर्स एलएलएम के AGI तक पहुँचने, छोड़िए तो सुपरइंटेलिजेंस तक, के बारे में संदेह करते हैं, बिना महत्वपूर्ण ब्रेकथ्रू के। ये संदेही, जो पहले चुप थे, अब अधिक मुखर हो रहे हैं।
AI समुदाय में संदेहवाद
हगिंग फेस के सह-संस्थापक और मुख्य विज्ञान अधिकारी, थॉमस वुल्फ को लीजिए। एक हालिया लेख में, उन्होंने अमोडेई के दृष्टिकोण के कुछ हिस्सों को "सबसे अच्छे मामले में भी आशावादी सोच" कहा है। अपने सांख्यिकीय और क्वांटम भौतिकी में पीएचडी का हवाला देते हुए, वुल्फ का तर्क है कि नोबेल स्तर की ब्रेकथ्रू नई सवाल पूछने से आती हैं, केवल ज्ञात सवालों के जवाब देने से नहीं—जो कि AI अच्छा करती है लेकिन नई विचारों के लिए महान नहीं है।
"मुझे यह 'एंस्टीन मॉडल' देखना बहुत पसंद आएगा, लेकिन हमें यह जानने के लिए विवरणों में उतरना होगा कि वहाँ कैसे पहुँचा जाए," वुल्फ ने TechCrunch के साथ एक साक्षात्कार में साझा किया। उन्होंने अपना लेख इसलिए लिखा क्योंकि उन्हें लगा कि AGI के आसपास का हाइप इसे हासिल करने के लिए गंभीर चर्चा की जरूरत को छाया में डाल रहा है। वुल्फ दुनिया को बदलने वाले AI का भविष्य देखते हैं, लेकिन जरूरी नहीं कि वह मानव-स्तर की बुद्धिमत्ता या सुपरइंटेलिजेंस तक पहुँचे।
AI समुदाय अक्सर AGI में विश्वास करने वालों और न करने वालों में विभाजित होता है, बाद वालों को कभी-कभी "एंटी-टेक्नोलॉजी" या सिर्फ निराशावादी माना जाता है। हालांकि, वुल्फ खुद को एक "जानकार आशावादी" मानते हैं, AI की प्रगति को आगे बढ़ाते हुए वास्तविकता में जमे रहते हैं।
AI बहस में अन्य आवाज़ें
Google DeepMind के सीईओ, डेमिस हसाबिस ने कथित तौर पर अपनी टीम को बताया कि AGI अभी भी एक दशक दूर हो सकती है, AI के अभी भी कई कार्यों को संभालने में असमर्थता की ओर इशारा करते हुए। Meta के मुख्य AI वैज्ञानिक, यान लेकुन ने भी एलएलएम के AGI हासिल करने के बारे में संदेह व्यक्त किया है, Nvidia GTC में विचार को "बकवास" कहा और सुपरइंटेलिजेंस को समर्थन देने के लिए नए आर्किटेक्चर की मांग की।
OpenAI के पूर्व लीड रिसर्चर और अब Lila Sciences के एक्जीक्यूटिव, केनेथ स्टैनली, उन्नत AI बनाने की बारीकियों पर काम कर रहे हैं। उनकी स्टार्टअप, जिसने हाल ही में 200 मिलियन डॉलर जुटाए हैं, वैज्ञानिक नवाचार को स्वचालित करने पर केंद्रित है। स्टैनली का काम AI की मूल और रचनात्मक विचार उत्पन्न करने की क्षमता में गोता लगाता है—एक क्षेत्र जिसे ओपन-एंडेडनेस के नाम से जाना जाता है।
"मुझे काश मैंने [वुल्फ का] निबंध लिखा होता, क्योंकि यह वास्तव में मेरी भावनाओं को प्रतिबिंबित करता है," स्टैनली ने TechCrunch को बताया। वह वुल्फ से सहमत हैं कि ज्ञान होना स्वतः ही मूल विचारों को नहीं लाता।
AI में रचनात्मकता की भूमिका
स्टैनली मानते हैं कि AGI के लिए रचनात्मकता महत्वपूर्ण है, लेकिन स्वीकार करते हैं कि यह एक कठिन चुनौती है। जबकि आशावादी जैसे अमोडेई AI "रीजनिंग" मॉडल को AGI की ओर एक कदम के रूप में उजागर करते हैं, स्टैनली का तर्क है कि रचनात्मकता के लिए एक अलग प्रकार की बुद्धिमत्ता की आवश्यकता होती है। "रीजनिंग लगभग रचनात्मकता के विपरीत है," उन्होंने समझाया। "रीजनिंग मॉडल एक विशिष्ट लक्ष्य तक पहुँचने पर ध्यान केंद्रित करते हैं, जो रचनात्मकता के लिए आवश्यक अवसरवादी सोच को सीमित कर सकता है।"
स्टैनली सुझाव देते हैं कि वास्तव में बुद्धिमान AI बनाने के लिए, हमें नए विचारों के लिए मानवीय स्वाद को एल्गोरिदमिक रूप से दोहराना होगा। जबकि AI गणित और प्रोग्रामिंग जैसे क्षेत्रों में, जहाँ उत्तर स्पष्ट हैं, उत्कृष्ट है, यह अधिक व्यक्तिपरक, रचनात्मक कार्यों में, जिनका कोई "सही" उत्तर नहीं है, संघर्ष करती है।
"लोग विज्ञान में [व्यक्तिपरता] से दूर हो जाते हैं—यह शब्द लगभग विषैला है," स्टैनली ने नोट किया। "लेकिन हमें [एल्गोरिदमिक रूप से] व्यक्तिपरता से निपटने से कुछ भी नहीं रोकता। यह डेटा स्ट्रीम का ही एक हिस्सा है।"
वह ओपन-एंडेडनेस पर बढ़ते ध्यान से उत्साहित हैं, Lila Sciences, Google DeepMind, और AI स्टार्टअप Sakana के रिसर्च लैब्स इस मुद्दे को हल कर रहे हैं। स्टैनली AI में रचनात्मकता के बारे में अधिक लोगों को बात करते देखते हैं लेकिन मानते हैं कि आगे बहुत काम बाकी है।
AI के यथार्थवादी
वुल्फ और लेकुन को "AI यथार्थवादी" माना जा सकता है: नेता जो AGI और सुपरइंटेलिजेंस के प्रति व्यवहारिक प्रश्नों के साथ आते हैं। उनका उद्देश्य AI की प्रगति को खारिज करना नहीं है, बल्कि AGI और सुपरइंटेलिजेंस तक पहुँचने से AI को रोकने वाले कारकों के बारे में एक व्यापक बातचीत शुरू करना है—और उन चुनौतियों का सामना करना।











