選項
首頁
新聞
埃里克·施密特(Eric Sc​​hmidt)反對阿吉·曼哈頓(Agi Manhattan)項目

埃里克·施密特(Eric Sc​​hmidt)反對阿吉·曼哈頓(Agi Manhattan)項目

2025-04-10
97

埃里克·施密特(Eric Sc​​hmidt)反對阿吉·曼哈頓(Agi Manhattan)項目

在週三發布的一份政策文件中,前谷歌首席執行官埃里克·施密特(Eric Schmidt)與Scale AI首席執行官亞歷山大·王(Alexandr Wang)及AI安全中心主任丹·亨德里克斯(Dan Hendrycks)共同建議,美國不應啟動類似曼哈頓計劃的舉措,來開發具有「超人類」智能的AI系統,這類系統通常被稱為通用人工智能(AGI)。

該文件題為「超智能策略」,警告稱美國若試圖壟斷超智能AI,可能會引發中國的強烈反應,或許以網絡攻擊的形式出現,這可能會擾亂全球關係。

共同作者認為:「針對AGI的曼哈頓計劃假設競爭對手會默許長期的不平衡或毀滅性後果,而不會採取行動阻止。這種為了超級武器和全球控制的推動,可能會引發敵對對策和緊張局勢升級,從而破壞該策略聲稱要確保的穩定性。」

這份由美國AI領域三位關鍵人物撰寫的文件,發布之際正值美國國會委員會建議啟動「類似曼哈頓計劃」的舉措,以資助AGI發展,類比於1940年代美國的原子彈項目。美國能源部長克里斯·賴特(Chris Wright)最近宣稱,美國正處於「新的曼哈頓計劃的開端」,並在一個超級計算機基地與OpenAI聯合創始人格雷格·布羅克曼(Greg Brockman)共同發表講話。

「超智能策略」文件挑戰了近期多位美國政策和產業領袖的推動,他們認為政府支持的AGI計劃是與中國競爭的最佳方式。

施密特、王和亨德里克斯認為,美國在AGI問題上面臨類似於相互保證毀滅的對峙局面。正如各國避免壟斷核武器以防預先打擊,作者建議美國應謹慎對待試圖主導高度先進的AI系統。

雖然將AI與核武器相比可能顯得誇張,但全球領導人已將AI視為關鍵的軍事資產。五角大樓指出,AI正在加速軍方的殺傷鏈。

作者提出了「相互保證AI故障」(MAIM)的概念,即政府可能會採取先發制人的行動,以禁用具有威脅性的AI項目,而不是等待對手將AGI武器化。

施密特、王和亨德里克斯建議,美國應將重點從「贏得超智能競賽」轉向開發方法,以阻止其他國家創造超智能AI。他們建議政府應「擴大其網絡攻擊武器庫,以禁用其他國家控制的威脅性AI項目」,並限制對手獲得先進AI晶片和開源模型的途徑。

該文件突顯了AI政策界的分歧,一方是「末日論者」,他們認為災難性AI後果不可避免,主張放緩AI進展;另一方是「鴕鳥派」,他們推動加速AI發展並抱持樂觀態度。

作者提出了第三條路徑:對AGI發展採取謹慎態度,強調防禦策略。

施密特的立場尤其引人注目,因為他此前曾強調美國需要在AI發展中與中國積極競爭。就在幾個月前,施密特撰寫了一篇專欄文章,稱DeepSeek標誌著美中AI競賽的關鍵時刻。

儘管川普政府決心推進美國的AI發展,共同作者提醒我們,美國在AGI上的決定具有全球影響。

隨著世界觀察美國在AI領域的推進,施密特及其共同作者建議,更具防禦性的策略可能是更明智的選擇。

相關文章
前OpenAI工程師分享公司文化與快速成長的見解 前OpenAI工程師分享公司文化與快速成長的見解 三週前,Calvin French-Owen,一位為OpenAI關鍵產品做出貢獻的工程師,離開了公司。他最近發表了一篇引人入勝的部落格文章,詳細描述了他在OpenAI一年的經歷,包括開發Codex的緊張努力,這是一個與Cursor和Anthropic的Claude Code競爭的編碼代理。French-Owen澄清,他的離職並非因內部衝突,而是源於他希望回歸創業生活。他之前共同創辦了Segment
Google 揭曉量產級 Gemini 2.5 AI 模型以在企業市場與 OpenAI 競爭 Google 揭曉量產級 Gemini 2.5 AI 模型以在企業市場與 OpenAI 競爭 Google 於週一強化其 AI 策略,推出先進的 Gemini 2.5 模型供企業使用,並引入成本效益高的變體,以在價格與性能上競爭。Alphabet 旗下的公司將其旗艦 AI 模型—Gemini 2.5 Pro 與 Gemini 2.5 Flash—從測試階段提升至全面可用,展示其適用於關鍵業務應用的準備度。同時,Google 推出 Gemini 2.5 Flash-Lite,定位為高量任務中
Meta為AI人才提供高薪,否認1億美元簽約獎金 Meta為AI人才提供高薪,否認1億美元簽約獎金 Meta以數百萬美元的薪酬套餐吸引AI研究人員加入其新超級智能實驗室。然而,一位受聘研究員及洩露的內部會議內容顯示,1億美元「簽約獎金」的說法不實。據The Verge週四報導,在一場洩露的公司全體會議中,Meta高管回應了關於OpenAI執行長Sam Altman聲稱Meta向頂尖研究員提供獎金的問題。Meta技術長Andrew Bosworth表示,只有極少數高級領導可能獲得如此高額報酬,但澄
評論 (27)
0/200
PaulLewis
PaulLewis 2025-07-28 09:19:30

Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔

PeterRodriguez
PeterRodriguez 2025-07-23 12:59:47

Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?

BruceSmith
BruceSmith 2025-04-21 01:32:22

La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔

MichaelDavis
MichaelDavis 2025-04-19 02:29:08

A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚

MiaDavis
MiaDavis 2025-04-19 00:24:42

에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚

TerryPerez
TerryPerez 2025-04-18 21:20:43

एरिक श्मिट का AGI पर नज़रिया सही है! हमें सुपरह्यूमन AI के लिए मैनहट्टन प्रोजेक्ट जैसी जल्दबाजी की ज़रूरत नहीं है। हमें सावधान रहना चाहिए और प्रभावों के बारे में सोचना चाहिए। उनका पेपर वांग और हेंड्रिक्स के साथ ज़रूर पढ़ना चाहिए! 👀📚

回到頂部
OR