एआई नेता एजीआई पर चर्चा करते हैं: वास्तविकता में आधारित

सैन फ्रांसिस्को में हाल ही में व्यापारिक नेताओं के साथ एक रात्रिभोज में, मैंने एक ऐसा प्रश्न उठाया जिसने पूरे कमरे को स्तब्ध कर दिया: क्या आज का AI कभी मानव जैसी बुद्धिमत्ता या उससे भी आगे पहुंच सकता है? यह एक ऐसा विषय है जो जितना आप सोचते हैं उससे कहीं अधिक बहस को जन्म देता है।
2025 में, टेक सीईओ बड़े भाषा मॉडल (LLMs) जैसे कि ChatGPT और Gemini के पीछे वाले मॉडल के बारे में उत्साह से भरे हुए हैं। वे आश्वस्त हैं कि ये मॉडल जल्द ही मानव-स्तर की या यहां तक कि सुपर-ह्यूमन बुद्धिमत्ता तक पहुंच सकते हैं। उदाहरण के लिए, Anthropic के डारियो अमोदेई को लें। उन्होंने निबंध लिखे हैं जिसमें सुझाव दिया गया है कि 2026 तक, हम विभिन्न क्षेत्रों में नोबेल पुरस्कार विजेताओं से भी अधिक बुद्धिमान AI देख सकते हैं। इस बीच, OpenAI के सैम ऑल्टमैन ने "सुपरइंटेलिजेंट" AI बनाने के तरीके के बारे में मुखर होकर बात की है, यह भविष्यवाणी करते हुए कि यह वैज्ञानिक खोज को तेजी से बढ़ा सकता है।
लेकिन हर कोई इस आशावादी चित्र में विश्वास नहीं कर रहा है। कुछ AI नेता LLMs के AGI तक पहुंचने, सुपरइंटेलिजेंस तो दूर की बात, के बारे में संशय में हैं, बिना महत्वपूर्ण सफलताओं के। ये संशयवादी, जो पहले चुप थे, अब अधिक खुलकर बोल रहे हैं।
AI समुदाय में संशय
Hugging Face के सह-संस्थापक और मुख्य वैज्ञानिक अधिकारी थॉमस वुल्फ को लें। हाल ही के एक लेख में, उन्होंने अमोदेई के दृष्टिकोण के कुछ हिस्सों को "अधिकतम आशावादी सोच" कहा। अपनी सांख्यिकीय और क्वांटम भौतिकी में पीएचडी का उपयोग करते हुए, वुल्फ तर्क देते हैं कि नोबेल-स्तर की सफलताएं नए प्रश्न पूछने से आती हैं, न कि केवल ज्ञात प्रश्नों के उत्तर देने से—जो AI में अच्छा है लेकिन नए विचारों को शुरू करने में उतना बेहतर नहीं है।
"मैं इस ‘आइंस्टीन मॉडल’ को वहां देखना पसंद करूंगा, लेकिन हमें यह जानने के लिए विवरण में जाना होगा कि वहां कैसे पहुंचा जाए," वुल्फ ने TechCrunch के साथ एक साक्षात्कार में साझा किया। उन्होंने अपना लेख इसलिए लिखा क्योंकि उन्हें लगता था कि AGI के आसपास का उत्साह इसे हासिल करने के लिए गंभीर चर्चा की आवश्यकता को छिपा रहा था। वुल्फ एक ऐसे भविष्य को देखते हैं जहां AI दुनिया को बदल देता है, लेकिन जरूरी नहीं कि वह मानव-स्तर की बुद्धिमत्ता या सुपरइंटेलिजेंस तक पहुंचे।
AI समुदाय अक्सर उन लोगों के बीच विभाजित होता है जो AGI में विश्वास करते हैं और जो नहीं करते, बाद वाले को कभी-कभी "प्रौद्योगिकी-विरोधी" या केवल निराशावादी करार दिया जाता है। हालांकि, वुल्फ खुद को एक "सूचित आशावादी" मानते हैं, जो AI के उन्नति के लिए जोर देते हैं लेकिन वास्तविकता में जमीन से जुड़े रहते हैं।
AI बहस में अन्य आवाजें
Google DeepMind के सीईओ, डेमिस हस्साबिस ने कथित तौर पर अपनी टीम को बताया कि AGI अभी भी एक दशक दूर हो सकता है, यह इंगित करते हुए कि कई कार्य हैं जो AI अभी तक संभाल नहीं सकता। Meta के मुख्य AI वैज्ञानिक, यान लेक्न ने भी LLMs के AGI हासिल करने के बारे में संदेह व्यक्त किया है, Nvidia GTC में इस विचार को "बकवास" कहकर और सुपरइंटेलिजेंस को आधार देने के लिए नई संरचनाओं को बढ़ावा दिया है।
OpenAI के पूर्व प्रमुख शोधकर्ता और अब Lila Sciences में कार्यकारी केनेथ स्टैनली, उन्नत AI बनाने के जटिल कार्य पर काम कर रहे हैं। उनकी स्टार्टअप, जिसने हाल ही में 200 मिलियन डॉलर जुटाए, वैज्ञानिक नवाचार को स्वचालित करने पर केंद्रित है। स्टैनली का काम AI की मूल, रचनात्मक विचार उत्पन्न करने की क्षमता में गहराई तक जाता है—एक क्षेत्र जिसे ओपन-एंडेडनेस के रूप में जाना जाता है।
"मैं चाहता हूं कि मैंने [वुल्फ का] निबंध लिखा होता, क्योंकि यह वास्तव में मेरी भावनाओं को दर्शाता है," स्टैनली ने TechCrunch को बताया। वे वुल्फ से सहमत हैं कि ज्ञानी होना स्वचालित रूप से मूल विचारों की ओर नहीं ले जाता।
AI में रचनात्मकता की भूमिका
स्टैनली का मानना है कि AGI के लिए रचनात्मकता महत्वपूर्ण है, लेकिन वे स्वीकार करते हैं कि यह एक कठिन समस्या है। जबकि अमोदेई जैसे आशावादी AI "रीजनिंग" मॉडल को AGI की ओर एक कदम के रूप में उजागर करते हैं, स्टैनली तर्क देते हैं कि रचनात्मकता के लिए एक अलग प्रकार की बुद्धिमत्ता की आवश्यकता होती है। "रीजनिंग लगभग [रचनात्मकता] के विपरीत है," उन्होंने समझाया। "रीजनिंग मॉडल एक विशिष्ट लक्ष्य तक पहुंचने पर ध्यान केंद्रित करते हैं, जो रचनात्मकता के लिए आवश्यक अवसरवादी सोच को सीमित कर सकता है।"
स्टैनली सुझाव देते हैं कि वास्तव में बुद्धिमान AI बनाने के लिए, हमें नए विचारों के लिए मानव स्वाद को एल्गोरिदमिक रूप से दोहराने की आवश्यकता है। जबकि AI गणित और प्रोग्रामिंग जैसे क्षेत्रों में उत्कृष्टता प्राप्त करता है, जहां उत्तर स्पष्ट हैं, यह अधिक व्यक्तिपरक, रचनात्मक कार्यों में संघर्ष करता है जिनका कोई "सही" उत्तर नहीं होता।
"लोग विज्ञान में [व्यक्तिपरकता] से दूर भागते हैं—यह शब्द लगभग विषाक्त है," स्टैनली ने उल्लेख किया। "लेकिन हमें व्यक्तिपरकता [एल्गोरिदमिक रूप से] से निपटने से कुछ भी नहीं रोकता। यह केवल डेटा स्ट्रीम का हिस्सा है।"
वे ओपन-एंडेडनेस पर बढ़ते ध्यान से प्रोत्साहित हैं, जिसमें Lila Sciences, Google DeepMind, और AI स्टार्टअप Sakana के अनुसंधान लैब इस मुद्दे पर काम कर रहे हैं। स्टैनली देखते हैं कि अधिक लोग AI में रचनात्मकता के बारे में बात कर रहे हैं लेकिन उनका मानना है कि अभी भी बहुत काम बाकी है।
AI के यथार्थवादी
वुल्फ और लेक्न को "AI यथार्थवादी" माना जा सकता है: ऐसे नेता जो AGI और सुपरइंटेलिजेंस के प्रति उनकी व्यवहार्यता के बारे में यथार्थवादी प्रश्नों के साथ संपर्क करते हैं। उनका उद्देश्य AI की प्रगति को खारिज करना नहीं है, बल्कि यह एक व्यापक बातचीत शुरू करना है कि AI को AGI और सुपरइंटेलिजेंस तक पहुंचने से क्या रोक रहा है—और उन चुनौतियों का सामना करना।
संबंधित लेख
OpenAI अपनी गैर-लाभकारी जड़ों की पुन: पुष्टि करता है प्रमुख कॉर्पोरेट पुनर्गठन में
OpenAI अपनी गैर-लाभकारी मिशन में दृढ़ रहता है क्योंकि यह एक महत्वपूर्ण कॉर्पोरेट पुनर्गठन से गुजर रहा है, विकास को नैतिक AI विकास के प्रति अपनी प्रतिबद्धता के साथ संतुलित करता है।सीईओ सैम ऑल्टमैन ने क
एआई नेता एजीआई पर चर्चा करते हैं: वास्तविकता में आधारित
सैन फ्रांसिस्को में बिज़नेस लीडर्स के साथ हाल ही में एक डिनर पर, मैंने एक सवाल उठाया जिससे कमरा जैसे ठंडा पड़ गया: क्या आज की AI कभी मानव जैसी बुद्धिमत्ता या उससे आगे पहुँच सकती है
Openai स्ट्राइक्स बैक: एआई प्रतियोगी को कम करने के लिए कथित प्रयासों के लिए एलोन मस्क ने कहा
Openai ने अपने सह-संस्थापक, एलोन मस्क और उनकी प्रतिस्पर्धी AI कंपनी, XAI के खिलाफ एक भयंकर कानूनी पलटवार लॉन्च किया है। अपने चल रहे झगड़े के एक नाटकीय वृद्धि में, ओपनई ने कस्तूरी पर आरोप लगाया कि वह उस कंपनी को कम करने में मदद करने के लिए एक "अथक" और "दुर्भावनापूर्ण" अभियान को छेड़ने का आरोप लगाता है। अदालत के अनुसार डी
सूचना (7)
0/200
RichardHarris
2 अगस्त 2025 8:37:14 अपराह्न IST
That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.
0
FrankJackson
28 जुलाई 2025 6:49:30 पूर्वाह्न IST
This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!
0
MarkRoberts
11 मई 2025 4:20:03 पूर्वाह्न IST
La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.
0
CharlesRoberts
10 मई 2025 11:36:40 अपराह्न IST
A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.
0
StevenNelson
10 मई 2025 6:46:38 अपराह्न IST
AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。
0
RalphSanchez
10 मई 2025 3:38:18 अपराह्न IST
AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.
0
सैन फ्रांसिस्को में हाल ही में व्यापारिक नेताओं के साथ एक रात्रिभोज में, मैंने एक ऐसा प्रश्न उठाया जिसने पूरे कमरे को स्तब्ध कर दिया: क्या आज का AI कभी मानव जैसी बुद्धिमत्ता या उससे भी आगे पहुंच सकता है? यह एक ऐसा विषय है जो जितना आप सोचते हैं उससे कहीं अधिक बहस को जन्म देता है।
2025 में, टेक सीईओ बड़े भाषा मॉडल (LLMs) जैसे कि ChatGPT और Gemini के पीछे वाले मॉडल के बारे में उत्साह से भरे हुए हैं। वे आश्वस्त हैं कि ये मॉडल जल्द ही मानव-स्तर की या यहां तक कि सुपर-ह्यूमन बुद्धिमत्ता तक पहुंच सकते हैं। उदाहरण के लिए, Anthropic के डारियो अमोदेई को लें। उन्होंने निबंध लिखे हैं जिसमें सुझाव दिया गया है कि 2026 तक, हम विभिन्न क्षेत्रों में नोबेल पुरस्कार विजेताओं से भी अधिक बुद्धिमान AI देख सकते हैं। इस बीच, OpenAI के सैम ऑल्टमैन ने "सुपरइंटेलिजेंट" AI बनाने के तरीके के बारे में मुखर होकर बात की है, यह भविष्यवाणी करते हुए कि यह वैज्ञानिक खोज को तेजी से बढ़ा सकता है।
लेकिन हर कोई इस आशावादी चित्र में विश्वास नहीं कर रहा है। कुछ AI नेता LLMs के AGI तक पहुंचने, सुपरइंटेलिजेंस तो दूर की बात, के बारे में संशय में हैं, बिना महत्वपूर्ण सफलताओं के। ये संशयवादी, जो पहले चुप थे, अब अधिक खुलकर बोल रहे हैं।
AI समुदाय में संशय
Hugging Face के सह-संस्थापक और मुख्य वैज्ञानिक अधिकारी थॉमस वुल्फ को लें। हाल ही के एक लेख में, उन्होंने अमोदेई के दृष्टिकोण के कुछ हिस्सों को "अधिकतम आशावादी सोच" कहा। अपनी सांख्यिकीय और क्वांटम भौतिकी में पीएचडी का उपयोग करते हुए, वुल्फ तर्क देते हैं कि नोबेल-स्तर की सफलताएं नए प्रश्न पूछने से आती हैं, न कि केवल ज्ञात प्रश्नों के उत्तर देने से—जो AI में अच्छा है लेकिन नए विचारों को शुरू करने में उतना बेहतर नहीं है।
"मैं इस ‘आइंस्टीन मॉडल’ को वहां देखना पसंद करूंगा, लेकिन हमें यह जानने के लिए विवरण में जाना होगा कि वहां कैसे पहुंचा जाए," वुल्फ ने TechCrunch के साथ एक साक्षात्कार में साझा किया। उन्होंने अपना लेख इसलिए लिखा क्योंकि उन्हें लगता था कि AGI के आसपास का उत्साह इसे हासिल करने के लिए गंभीर चर्चा की आवश्यकता को छिपा रहा था। वुल्फ एक ऐसे भविष्य को देखते हैं जहां AI दुनिया को बदल देता है, लेकिन जरूरी नहीं कि वह मानव-स्तर की बुद्धिमत्ता या सुपरइंटेलिजेंस तक पहुंचे।
AI समुदाय अक्सर उन लोगों के बीच विभाजित होता है जो AGI में विश्वास करते हैं और जो नहीं करते, बाद वाले को कभी-कभी "प्रौद्योगिकी-विरोधी" या केवल निराशावादी करार दिया जाता है। हालांकि, वुल्फ खुद को एक "सूचित आशावादी" मानते हैं, जो AI के उन्नति के लिए जोर देते हैं लेकिन वास्तविकता में जमीन से जुड़े रहते हैं।
AI बहस में अन्य आवाजें
Google DeepMind के सीईओ, डेमिस हस्साबिस ने कथित तौर पर अपनी टीम को बताया कि AGI अभी भी एक दशक दूर हो सकता है, यह इंगित करते हुए कि कई कार्य हैं जो AI अभी तक संभाल नहीं सकता। Meta के मुख्य AI वैज्ञानिक, यान लेक्न ने भी LLMs के AGI हासिल करने के बारे में संदेह व्यक्त किया है, Nvidia GTC में इस विचार को "बकवास" कहकर और सुपरइंटेलिजेंस को आधार देने के लिए नई संरचनाओं को बढ़ावा दिया है।
OpenAI के पूर्व प्रमुख शोधकर्ता और अब Lila Sciences में कार्यकारी केनेथ स्टैनली, उन्नत AI बनाने के जटिल कार्य पर काम कर रहे हैं। उनकी स्टार्टअप, जिसने हाल ही में 200 मिलियन डॉलर जुटाए, वैज्ञानिक नवाचार को स्वचालित करने पर केंद्रित है। स्टैनली का काम AI की मूल, रचनात्मक विचार उत्पन्न करने की क्षमता में गहराई तक जाता है—एक क्षेत्र जिसे ओपन-एंडेडनेस के रूप में जाना जाता है।
"मैं चाहता हूं कि मैंने [वुल्फ का] निबंध लिखा होता, क्योंकि यह वास्तव में मेरी भावनाओं को दर्शाता है," स्टैनली ने TechCrunch को बताया। वे वुल्फ से सहमत हैं कि ज्ञानी होना स्वचालित रूप से मूल विचारों की ओर नहीं ले जाता।
AI में रचनात्मकता की भूमिका
स्टैनली का मानना है कि AGI के लिए रचनात्मकता महत्वपूर्ण है, लेकिन वे स्वीकार करते हैं कि यह एक कठिन समस्या है। जबकि अमोदेई जैसे आशावादी AI "रीजनिंग" मॉडल को AGI की ओर एक कदम के रूप में उजागर करते हैं, स्टैनली तर्क देते हैं कि रचनात्मकता के लिए एक अलग प्रकार की बुद्धिमत्ता की आवश्यकता होती है। "रीजनिंग लगभग [रचनात्मकता] के विपरीत है," उन्होंने समझाया। "रीजनिंग मॉडल एक विशिष्ट लक्ष्य तक पहुंचने पर ध्यान केंद्रित करते हैं, जो रचनात्मकता के लिए आवश्यक अवसरवादी सोच को सीमित कर सकता है।"
स्टैनली सुझाव देते हैं कि वास्तव में बुद्धिमान AI बनाने के लिए, हमें नए विचारों के लिए मानव स्वाद को एल्गोरिदमिक रूप से दोहराने की आवश्यकता है। जबकि AI गणित और प्रोग्रामिंग जैसे क्षेत्रों में उत्कृष्टता प्राप्त करता है, जहां उत्तर स्पष्ट हैं, यह अधिक व्यक्तिपरक, रचनात्मक कार्यों में संघर्ष करता है जिनका कोई "सही" उत्तर नहीं होता।
"लोग विज्ञान में [व्यक्तिपरकता] से दूर भागते हैं—यह शब्द लगभग विषाक्त है," स्टैनली ने उल्लेख किया। "लेकिन हमें व्यक्तिपरकता [एल्गोरिदमिक रूप से] से निपटने से कुछ भी नहीं रोकता। यह केवल डेटा स्ट्रीम का हिस्सा है।"
वे ओपन-एंडेडनेस पर बढ़ते ध्यान से प्रोत्साहित हैं, जिसमें Lila Sciences, Google DeepMind, और AI स्टार्टअप Sakana के अनुसंधान लैब इस मुद्दे पर काम कर रहे हैं। स्टैनली देखते हैं कि अधिक लोग AI में रचनात्मकता के बारे में बात कर रहे हैं लेकिन उनका मानना है कि अभी भी बहुत काम बाकी है।
AI के यथार्थवादी
वुल्फ और लेक्न को "AI यथार्थवादी" माना जा सकता है: ऐसे नेता जो AGI और सुपरइंटेलिजेंस के प्रति उनकी व्यवहार्यता के बारे में यथार्थवादी प्रश्नों के साथ संपर्क करते हैं। उनका उद्देश्य AI की प्रगति को खारिज करना नहीं है, बल्कि यह एक व्यापक बातचीत शुरू करना है कि AI को AGI और सुपरइंटेलिजेंस तक पहुंचने से क्या रोक रहा है—और उन चुनौतियों का सामना करना।


That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.




This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!




La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.




A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.




AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。




AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.












