एरिक श्मिट ने एजीआई मैनहट्टन प्रोजेक्ट का विरोध किया

बुधवार को जारी एक पॉलिसी पेपर में, Google के पूर्व सीईओ एरिक श्मिट, स्केल एआई के सीईओ अलेक्जेंड्र वांग और एआई सुरक्षा निदेशक डैन हेंड्रिक के लिए सेंटर के साथ, अमेरिका के खिलाफ सलाह दी गई थी कि "अलौकिक" के साथ एआई सिस्टम को विकसित करने के लिए एक मैनहट्टन प्रोजेक्ट-स्टाइल पहल शुरू की, जिसे आमतौर पर एजीआई के रूप में संदर्भित किया गया। "अधीक्षक रणनीति" शीर्षक से, कागज ने चेतावनी दी है कि अधीक्षक एआई एकाधिकार करने के लिए एक अमेरिकी प्रयास चीन से एक मजबूत प्रतिक्रिया को भड़का सकता है, संभवतः एक साइबर हमले के रूप में, जो वैश्विक संबंधों को बाधित कर सकता है। सह-लेखकों का तर्क है, "एजीआई के लिए एक मैनहट्टन परियोजना यह मानती है कि प्रतिद्वंद्वी इसे रोकने के लिए आगे बढ़ने के बजाय एक स्थायी असंतुलन या सर्वव्यापी करने के लिए परिचित होंगे। एक सुपरवेपॉन और वैश्विक नियंत्रण जोखिमों के लिए एक धक्का के रूप में शुरू होता है, जो शत्रुतापूर्ण काउंटरमेशर्स को प्रेरित करता है और तनाव को बढ़ाता है, जिससे बहुत ही स्थिरता को कम करने के लिए रणनीति को कम कर दिया जाता है।" अमेरिकी एआई क्षेत्र में तीन प्रमुख आंकड़ों द्वारा लिखे गए यह पत्र, अमेरिकी कांग्रेस आयोग के एक अमेरिकी कांग्रेस आयोग द्वारा एजीआई विकास को निधि देने के लिए एक "मैनहट्टन परियोजना-शैली" पहल का सुझाव देने के तुरंत बाद, 1940 के दशक के अमेरिकी परमाणु बम परियोजना के लिए समानताएं खींचने का सुझाव दिया। अमेरिकी ऊर्जा के सचिव क्रिस राइट ने हाल ही में अमेरिका को एआई पर "द स्टार्ट ऑफ ए न्यू मैनहट्टन प्रोजेक्ट" में घोषित किया, जो ओपनईएआई के सह-संस्थापक ग्रेग ब्रॉकमैन के साथ एक सुपर कंप्यूटर साइट पर बोल रहा था। अधीक्षण रणनीति पेपर कई अमेरिकी नीति और उद्योग के नेताओं द्वारा हाल ही में धक्का को चुनौती देता है जो मानते हैं कि सरकार समर्थित एजीआई कार्यक्रम चीन के साथ बनाए रखने का सबसे अच्छा तरीका है। श्मिट, वांग, और हेंड्रीक अमेरिका को एक स्थिति में देखते हैं, जो कि एजीआई पर एक गतिरोध के समान है, जो पारस्परिक रूप से आश्वस्त विनाश की अवधारणा के समान है। जिस तरह राष्ट्र पूर्ववर्ती हमलों को रोकने के लिए परमाणु हथियारों पर एकाधिकार करने से बचते हैं, लेखकों ने सुझाव दिया कि अमेरिका को अत्यधिक उन्नत एआई सिस्टम पर हावी होने के लिए दौड़ने से सावधान रहना चाहिए। एआई की तुलना परमाणु हथियारों की तुलना में शीर्ष पर लग सकती है, वैश्विक नेता पहले से ही एआई को एक महत्वपूर्ण सैन्य संपत्ति के रूप में देखते हैं। पेंटागन ने नोट किया है कि एआई सेना की मार श्रृंखला को तेज कर रहा है। लेखक म्यूचुअल एश्वर्ड एआई खराबी (एमएआईएम) के विचार का परिचय देते हैं, जहां सरकारें एजीआई को हथियार बनाने के लिए विरोधियों की प्रतीक्षा करने के बजाय एआई परियोजनाओं को धमकी देने के लिए अक्षम करने के लिए पूर्वव्यापी कार्रवाई कर सकती हैं। श्मिट, वांग, और हेंड्रीक ने सलाह दी कि यूएस ने अपना ध्यान "दौड़ जीतने के लिए अधीक्षक" से लेकर अन्य देशों को अधीक्षक एआई बनाने से रोकने के तरीकों को विकसित करने के लिए स्थानांतरित किया। वे सुझाव देते हैं कि सरकार को अन्य राष्ट्रों द्वारा नियंत्रित एआई परियोजनाओं को खतरे में डालने के लिए "एआई परियोजनाओं को अक्षम करने के लिए साइबर हमले के अपने शस्त्रागार का विस्तार करना चाहिए और उन्नत एआई चिप्स और ओपन-सोर्स मॉडल तक विरोधी की पहुंच को प्रतिबंधित करना चाहिए। पेपर "डूमर्स" के बीच एआई नीति समुदाय में एक विभाजन पर प्रकाश डालता है, जो मानते हैं कि एआई प्रगति को धीमा करने के लिए एआई के परिणाम अपरिहार्य हैं और वकील हैं, और "शुतुरमुर्ग", जो एआई विकास को तेज करने के लिए धक्का देते हैं और सर्वश्रेष्ठ के लिए आशा करते हैं। लेखक एक तीसरे मार्ग का प्रस्ताव करते हैं: एजीआई विकास के लिए एक सतर्क दृष्टिकोण जो रक्षात्मक रणनीतियों पर जोर देता है। यह रुख विशेष रूप से श्मिट से उल्लेखनीय है, जिन्होंने पहले एआई विकास में चीन के साथ आक्रामक रूप से प्रतिस्पर्धा करने के लिए अमेरिका की आवश्यकता पर जोर दिया है। कुछ महीने पहले, श्मिट ने एक ऑप-एड लिखा था जिसमें कहा गया था कि दीपसेक ने यूएस-चीन एआई दौड़ में एक महत्वपूर्ण क्षण को चिह्नित किया था। अमेरिका के एआई विकास को आगे बढ़ाने के ट्रम्प प्रशासन के दृढ़ संकल्प के बावजूद, सह-लेखक हमें याद दिलाते हैं कि एजीआई पर अमेरिकी निर्णयों के वैश्विक निहितार्थ हैं। जैसा कि दुनिया एआई में अमेरिका के धक्का को देखती है, श्मिट और उनके सह-लेखकों का सुझाव है कि अधिक रक्षात्मक रणनीति समझदार पसंद हो सकती है।
संबंधित लेख
OpenAI升级其Operator Agent的AI模型
OpenAI将Operator智能体推向新高度OpenAI正为其自主AI智能体Operator进行重大升级。此次更新意味着Operator将很快采用基于o3模型的架构——这是OpenAI尖端o系列推理模型的最新成员。此前Operator一直基于定制版GPT-4o运行,但这次迭代将带来显著提升。o3模型的突破性意义在数学与逻辑推理任务中,o3几乎在所有指标上都
OpenAI的o3 AI模型在基准测试中的得分低于最初暗示的水平
为什么基准测试差异在人工智能领域很重要?在人工智能领域,数字往往能讲述故事——有时,这些数字并不能完全匹配。以OpenAI的o3模型为例。最初的声明令人震惊:o3据说能够处理超过25%的著名难题FrontierMath问题。作为对比,竞争对手的成绩停留在个位数。但快进到最近的发展情况,备受尊敬的研究机构Epoch AI对此提出了质疑。他们的研究结果显示,o3
Ziff Davis起诉OpenAI涉嫌侵犯版权
齐夫·戴维斯起诉OpenAI侵犯版权这一举动在科技界和出版界引起了轩然大波,Ziff Davis——旗下拥有《CNET》、《PCMag》、《IGN》和《Everyday Health》等品牌的庞大企业集团——已因涉嫌侵犯版权对OpenAI提起诉讼。据《纽约时报》报道,该诉讼声称OpenAI故意在其未获授权的情况下使用Ziff Davis的内容,创造了“完全复
सूचना (20)
0/200
LawrenceLee
10 अप्रैल 2025 12:00:00 पूर्वाह्न GMT
Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!
0
DouglasRodriguez
10 अप्रैल 2025 12:00:00 पूर्वाह्न GMT
エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!
0
HenryJackson
10 अप्रैल 2025 12:00:00 पूर्वाह्न GMT
에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!
0
NicholasThomas
10 अप्रैल 2025 12:00:00 पूर्वाह्न GMT
A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!
0
KennethRoberts
10 अप्रैल 2025 12:00:00 पूर्वाह्न GMT
एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!
0
BruceWilson
16 अप्रैल 2025 12:00:00 पूर्वाह्न GMT
Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀
0




Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!




エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!




에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!




A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!




एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!




Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀












