एआई नेता एजीआई पर चर्चा करते हैं: वास्तविकता में आधारित

सैन फ्रांसिस्को में बिज़नेस लीडर्स के साथ हाल ही में एक डिनर पर, मैंने एक सवाल उठाया जिससे कमरा जैसे ठंडा पड़ गया: क्या आज की AI कभी मानव जैसी बुद्धिमत्ता या उससे आगे पहुँच सकती है? यह एक ऐसा विषय है जिस पर आपकी उम्मीद से ज्यादा बहस होती है।
2025 में, टेक सीईओ लार्ज लैंग्वेज मॉडल्स (एलएलएम) जैसे ChatGPT और Gemini के पीछे वाले को लेकर आशावाद से भरे हुए हैं। वे मानते हैं कि ये मॉडल जल्द ही मानव स्तर या यहाँ तक कि सुपर-ह्यूमन बुद्धिमत्ता तक पहुँच सकते हैं। उदाहरण के लिए, Anthropic के डारियो अमोडेई ने निबंध लिखे हैं जिसमें उन्होंने सुझाव दिया है कि 2026 तक हम विभिन्न क्षेत्रों में नोबेल पुरस्कार विजेताओं से भी स्मार्टर AI देख सकते हैं। इस बीच, OpenAI के सैम ऑल्टमैन ने "सुपरइंटेलिजेंट" AI बनाने के तरीके के बारे में जानने का दावा किया है, भविष्यवाणी की है कि यह वैज्ञानिक खोज को तेज कर सकता है।
लेकिन हर कोई इस आशावादी तस्वीर को नहीं खरीद रहा है। कुछ AI लीडर्स एलएलएम के AGI तक पहुँचने, छोड़िए तो सुपरइंटेलिजेंस तक, के बारे में संदेह करते हैं, बिना महत्वपूर्ण ब्रेकथ्रू के। ये संदेही, जो पहले चुप थे, अब अधिक मुखर हो रहे हैं।
AI समुदाय में संदेहवाद
हगिंग फेस के सह-संस्थापक और मुख्य विज्ञान अधिकारी, थॉमस वुल्फ को लीजिए। एक हालिया लेख में, उन्होंने अमोडेई के दृष्टिकोण के कुछ हिस्सों को "सबसे अच्छे मामले में भी आशावादी सोच" कहा है। अपने सांख्यिकीय और क्वांटम भौतिकी में पीएचडी का हवाला देते हुए, वुल्फ का तर्क है कि नोबेल स्तर की ब्रेकथ्रू नई सवाल पूछने से आती हैं, केवल ज्ञात सवालों के जवाब देने से नहीं—जो कि AI अच्छा करती है लेकिन नई विचारों के लिए महान नहीं है।
"मुझे यह 'एंस्टीन मॉडल' देखना बहुत पसंद आएगा, लेकिन हमें यह जानने के लिए विवरणों में उतरना होगा कि वहाँ कैसे पहुँचा जाए," वुल्फ ने TechCrunch के साथ एक साक्षात्कार में साझा किया। उन्होंने अपना लेख इसलिए लिखा क्योंकि उन्हें लगा कि AGI के आसपास का हाइप इसे हासिल करने के लिए गंभीर चर्चा की जरूरत को छाया में डाल रहा है। वुल्फ दुनिया को बदलने वाले AI का भविष्य देखते हैं, लेकिन जरूरी नहीं कि वह मानव-स्तर की बुद्धिमत्ता या सुपरइंटेलिजेंस तक पहुँचे।
AI समुदाय अक्सर AGI में विश्वास करने वालों और न करने वालों में विभाजित होता है, बाद वालों को कभी-कभी "एंटी-टेक्नोलॉजी" या सिर्फ निराशावादी माना जाता है। हालांकि, वुल्फ खुद को एक "जानकार आशावादी" मानते हैं, AI की प्रगति को आगे बढ़ाते हुए वास्तविकता में जमे रहते हैं।
AI बहस में अन्य आवाज़ें
Google DeepMind के सीईओ, डेमिस हसाबिस ने कथित तौर पर अपनी टीम को बताया कि AGI अभी भी एक दशक दूर हो सकती है, AI के अभी भी कई कार्यों को संभालने में असमर्थता की ओर इशारा करते हुए। Meta के मुख्य AI वैज्ञानिक, यान लेकुन ने भी एलएलएम के AGI हासिल करने के बारे में संदेह व्यक्त किया है, Nvidia GTC में विचार को "बकवास" कहा और सुपरइंटेलिजेंस को समर्थन देने के लिए नए आर्किटेक्चर की मांग की।
OpenAI के पूर्व लीड रिसर्चर और अब Lila Sciences के एक्जीक्यूटिव, केनेथ स्टैनली, उन्नत AI बनाने की बारीकियों पर काम कर रहे हैं। उनकी स्टार्टअप, जिसने हाल ही में 200 मिलियन डॉलर जुटाए हैं, वैज्ञानिक नवाचार को स्वचालित करने पर केंद्रित है। स्टैनली का काम AI की मूल और रचनात्मक विचार उत्पन्न करने की क्षमता में गोता लगाता है—एक क्षेत्र जिसे ओपन-एंडेडनेस के नाम से जाना जाता है।
"मुझे काश मैंने [वुल्फ का] निबंध लिखा होता, क्योंकि यह वास्तव में मेरी भावनाओं को प्रतिबिंबित करता है," स्टैनली ने TechCrunch को बताया। वह वुल्फ से सहमत हैं कि ज्ञान होना स्वतः ही मूल विचारों को नहीं लाता।
AI में रचनात्मकता की भूमिका
स्टैनली मानते हैं कि AGI के लिए रचनात्मकता महत्वपूर्ण है, लेकिन स्वीकार करते हैं कि यह एक कठिन चुनौती है। जबकि आशावादी जैसे अमोडेई AI "रीजनिंग" मॉडल को AGI की ओर एक कदम के रूप में उजागर करते हैं, स्टैनली का तर्क है कि रचनात्मकता के लिए एक अलग प्रकार की बुद्धिमत्ता की आवश्यकता होती है। "रीजनिंग लगभग रचनात्मकता के विपरीत है," उन्होंने समझाया। "रीजनिंग मॉडल एक विशिष्ट लक्ष्य तक पहुँचने पर ध्यान केंद्रित करते हैं, जो रचनात्मकता के लिए आवश्यक अवसरवादी सोच को सीमित कर सकता है।"
स्टैनली सुझाव देते हैं कि वास्तव में बुद्धिमान AI बनाने के लिए, हमें नए विचारों के लिए मानवीय स्वाद को एल्गोरिदमिक रूप से दोहराना होगा। जबकि AI गणित और प्रोग्रामिंग जैसे क्षेत्रों में, जहाँ उत्तर स्पष्ट हैं, उत्कृष्ट है, यह अधिक व्यक्तिपरक, रचनात्मक कार्यों में, जिनका कोई "सही" उत्तर नहीं है, संघर्ष करती है।
"लोग विज्ञान में [व्यक्तिपरता] से दूर हो जाते हैं—यह शब्द लगभग विषैला है," स्टैनली ने नोट किया। "लेकिन हमें [एल्गोरिदमिक रूप से] व्यक्तिपरता से निपटने से कुछ भी नहीं रोकता। यह डेटा स्ट्रीम का ही एक हिस्सा है।"
वह ओपन-एंडेडनेस पर बढ़ते ध्यान से उत्साहित हैं, Lila Sciences, Google DeepMind, और AI स्टार्टअप Sakana के रिसर्च लैब्स इस मुद्दे को हल कर रहे हैं। स्टैनली AI में रचनात्मकता के बारे में अधिक लोगों को बात करते देखते हैं लेकिन मानते हैं कि आगे बहुत काम बाकी है।
AI के यथार्थवादी
वुल्फ और लेकुन को "AI यथार्थवादी" माना जा सकता है: नेता जो AGI और सुपरइंटेलिजेंस के प्रति व्यवहारिक प्रश्नों के साथ आते हैं। उनका उद्देश्य AI की प्रगति को खारिज करना नहीं है, बल्कि AGI और सुपरइंटेलिजेंस तक पहुँचने से AI को रोकने वाले कारकों के बारे में एक व्यापक बातचीत शुरू करना है—और उन चुनौतियों का सामना करना।
संबंधित लेख
AI領導者討論AGI:基於現實
在最近一次與舊金山商業領袖的晚餐上,我提出了一個似乎讓現場冷場的問題:今天的人工智能是否能達到或超越人類的智能?這是一個比你預期的更能引發爭議的話題。到了2025年,科技CEO們對像ChatGPT和Gemini背後的大型語言模型(LLM)充滿了樂觀情緒。他們相信這些模型很快就能達到人類級別甚至超人類的智能。以Anthropic的Dario Amodei為例,
Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手
Openai對其聯合創始人Elon Musk及其競爭的AI公司Xai發起了激烈的法律反擊。在他們正在進行的爭執的戲劇性升級中,Openai指責馬斯克發動了一場“無情”和“惡意”運動,破壞了他幫助創辦的公司。根據法院D
加速回報定律解釋了:AGI開發途徑
在最近的一次採訪中,埃隆·馬斯克(Elon Musk)分享了他對人工通用情報(AGI)的時間表的樂觀觀點(AGI),並指出它可能是 *“ 3至6年” *。同樣,Google DeepMind的首席執行官Demis Hassabis在《華爾街日報》的《一切事物》上表達了
सूचना (5)
0/200
ElijahWalker
9 मई 2025 12:00:00 पूर्वाह्न GMT
The AI Leaders discussion on AGI was eye-opening. It grounded the conversation in reality, which is refreshing. Some of the points made were thought-provoking, though I wish there was more depth in certain areas. Overall, it was a solid talk with valuable insights.
0
StevenNelson
10 मई 2025 12:00:00 पूर्वाह्न GMT
AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。
0
RalphSanchez
10 मई 2025 12:00:00 पूर्वाह्न GMT
AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.
0
CharlesRoberts
11 मई 2025 12:00:00 पूर्वाह्न GMT
A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.
0
MarkRoberts
11 मई 2025 12:00:00 पूर्वाह्न GMT
La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.
0
सैन फ्रांसिस्को में बिज़नेस लीडर्स के साथ हाल ही में एक डिनर पर, मैंने एक सवाल उठाया जिससे कमरा जैसे ठंडा पड़ गया: क्या आज की AI कभी मानव जैसी बुद्धिमत्ता या उससे आगे पहुँच सकती है? यह एक ऐसा विषय है जिस पर आपकी उम्मीद से ज्यादा बहस होती है।
2025 में, टेक सीईओ लार्ज लैंग्वेज मॉडल्स (एलएलएम) जैसे ChatGPT और Gemini के पीछे वाले को लेकर आशावाद से भरे हुए हैं। वे मानते हैं कि ये मॉडल जल्द ही मानव स्तर या यहाँ तक कि सुपर-ह्यूमन बुद्धिमत्ता तक पहुँच सकते हैं। उदाहरण के लिए, Anthropic के डारियो अमोडेई ने निबंध लिखे हैं जिसमें उन्होंने सुझाव दिया है कि 2026 तक हम विभिन्न क्षेत्रों में नोबेल पुरस्कार विजेताओं से भी स्मार्टर AI देख सकते हैं। इस बीच, OpenAI के सैम ऑल्टमैन ने "सुपरइंटेलिजेंट" AI बनाने के तरीके के बारे में जानने का दावा किया है, भविष्यवाणी की है कि यह वैज्ञानिक खोज को तेज कर सकता है।
लेकिन हर कोई इस आशावादी तस्वीर को नहीं खरीद रहा है। कुछ AI लीडर्स एलएलएम के AGI तक पहुँचने, छोड़िए तो सुपरइंटेलिजेंस तक, के बारे में संदेह करते हैं, बिना महत्वपूर्ण ब्रेकथ्रू के। ये संदेही, जो पहले चुप थे, अब अधिक मुखर हो रहे हैं।
AI समुदाय में संदेहवाद
हगिंग फेस के सह-संस्थापक और मुख्य विज्ञान अधिकारी, थॉमस वुल्फ को लीजिए। एक हालिया लेख में, उन्होंने अमोडेई के दृष्टिकोण के कुछ हिस्सों को "सबसे अच्छे मामले में भी आशावादी सोच" कहा है। अपने सांख्यिकीय और क्वांटम भौतिकी में पीएचडी का हवाला देते हुए, वुल्फ का तर्क है कि नोबेल स्तर की ब्रेकथ्रू नई सवाल पूछने से आती हैं, केवल ज्ञात सवालों के जवाब देने से नहीं—जो कि AI अच्छा करती है लेकिन नई विचारों के लिए महान नहीं है।
"मुझे यह 'एंस्टीन मॉडल' देखना बहुत पसंद आएगा, लेकिन हमें यह जानने के लिए विवरणों में उतरना होगा कि वहाँ कैसे पहुँचा जाए," वुल्फ ने TechCrunch के साथ एक साक्षात्कार में साझा किया। उन्होंने अपना लेख इसलिए लिखा क्योंकि उन्हें लगा कि AGI के आसपास का हाइप इसे हासिल करने के लिए गंभीर चर्चा की जरूरत को छाया में डाल रहा है। वुल्फ दुनिया को बदलने वाले AI का भविष्य देखते हैं, लेकिन जरूरी नहीं कि वह मानव-स्तर की बुद्धिमत्ता या सुपरइंटेलिजेंस तक पहुँचे।
AI समुदाय अक्सर AGI में विश्वास करने वालों और न करने वालों में विभाजित होता है, बाद वालों को कभी-कभी "एंटी-टेक्नोलॉजी" या सिर्फ निराशावादी माना जाता है। हालांकि, वुल्फ खुद को एक "जानकार आशावादी" मानते हैं, AI की प्रगति को आगे बढ़ाते हुए वास्तविकता में जमे रहते हैं।
AI बहस में अन्य आवाज़ें
Google DeepMind के सीईओ, डेमिस हसाबिस ने कथित तौर पर अपनी टीम को बताया कि AGI अभी भी एक दशक दूर हो सकती है, AI के अभी भी कई कार्यों को संभालने में असमर्थता की ओर इशारा करते हुए। Meta के मुख्य AI वैज्ञानिक, यान लेकुन ने भी एलएलएम के AGI हासिल करने के बारे में संदेह व्यक्त किया है, Nvidia GTC में विचार को "बकवास" कहा और सुपरइंटेलिजेंस को समर्थन देने के लिए नए आर्किटेक्चर की मांग की।
OpenAI के पूर्व लीड रिसर्चर और अब Lila Sciences के एक्जीक्यूटिव, केनेथ स्टैनली, उन्नत AI बनाने की बारीकियों पर काम कर रहे हैं। उनकी स्टार्टअप, जिसने हाल ही में 200 मिलियन डॉलर जुटाए हैं, वैज्ञानिक नवाचार को स्वचालित करने पर केंद्रित है। स्टैनली का काम AI की मूल और रचनात्मक विचार उत्पन्न करने की क्षमता में गोता लगाता है—एक क्षेत्र जिसे ओपन-एंडेडनेस के नाम से जाना जाता है।
"मुझे काश मैंने [वुल्फ का] निबंध लिखा होता, क्योंकि यह वास्तव में मेरी भावनाओं को प्रतिबिंबित करता है," स्टैनली ने TechCrunch को बताया। वह वुल्फ से सहमत हैं कि ज्ञान होना स्वतः ही मूल विचारों को नहीं लाता।
AI में रचनात्मकता की भूमिका
स्टैनली मानते हैं कि AGI के लिए रचनात्मकता महत्वपूर्ण है, लेकिन स्वीकार करते हैं कि यह एक कठिन चुनौती है। जबकि आशावादी जैसे अमोडेई AI "रीजनिंग" मॉडल को AGI की ओर एक कदम के रूप में उजागर करते हैं, स्टैनली का तर्क है कि रचनात्मकता के लिए एक अलग प्रकार की बुद्धिमत्ता की आवश्यकता होती है। "रीजनिंग लगभग रचनात्मकता के विपरीत है," उन्होंने समझाया। "रीजनिंग मॉडल एक विशिष्ट लक्ष्य तक पहुँचने पर ध्यान केंद्रित करते हैं, जो रचनात्मकता के लिए आवश्यक अवसरवादी सोच को सीमित कर सकता है।"
स्टैनली सुझाव देते हैं कि वास्तव में बुद्धिमान AI बनाने के लिए, हमें नए विचारों के लिए मानवीय स्वाद को एल्गोरिदमिक रूप से दोहराना होगा। जबकि AI गणित और प्रोग्रामिंग जैसे क्षेत्रों में, जहाँ उत्तर स्पष्ट हैं, उत्कृष्ट है, यह अधिक व्यक्तिपरक, रचनात्मक कार्यों में, जिनका कोई "सही" उत्तर नहीं है, संघर्ष करती है।
"लोग विज्ञान में [व्यक्तिपरता] से दूर हो जाते हैं—यह शब्द लगभग विषैला है," स्टैनली ने नोट किया। "लेकिन हमें [एल्गोरिदमिक रूप से] व्यक्तिपरता से निपटने से कुछ भी नहीं रोकता। यह डेटा स्ट्रीम का ही एक हिस्सा है।"
वह ओपन-एंडेडनेस पर बढ़ते ध्यान से उत्साहित हैं, Lila Sciences, Google DeepMind, और AI स्टार्टअप Sakana के रिसर्च लैब्स इस मुद्दे को हल कर रहे हैं। स्टैनली AI में रचनात्मकता के बारे में अधिक लोगों को बात करते देखते हैं लेकिन मानते हैं कि आगे बहुत काम बाकी है।
AI के यथार्थवादी
वुल्फ और लेकुन को "AI यथार्थवादी" माना जा सकता है: नेता जो AGI और सुपरइंटेलिजेंस के प्रति व्यवहारिक प्रश्नों के साथ आते हैं। उनका उद्देश्य AI की प्रगति को खारिज करना नहीं है, बल्कि AGI और सुपरइंटेलिजेंस तक पहुँचने से AI को रोकने वाले कारकों के बारे में एक व्यापक बातचीत शुरू करना है—और उन चुनौतियों का सामना करना।



The AI Leaders discussion on AGI was eye-opening. It grounded the conversation in reality, which is refreshing. Some of the points made were thought-provoking, though I wish there was more depth in certain areas. Overall, it was a solid talk with valuable insights.




AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。




AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.




A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.




La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.












