埃里克·施密特(Eric Schmidt)反對阿吉·曼哈頓(Agi Manhattan)項目

在週三發布的一份政策文件中,前谷歌首席執行官埃里克·施密特(Eric Schmidt)與Scale AI首席執行官亞歷山大·王(Alexandr Wang)及AI安全中心主任丹·亨德里克斯(Dan Hendrycks)共同建議,美國不應啟動類似曼哈頓計劃的舉措,來開發具有「超人類」智能的AI系統,這類系統通常被稱為通用人工智能(AGI)。
該文件題為「超智能策略」,警告稱美國若試圖壟斷超智能AI,可能會引發中國的強烈反應,或許以網絡攻擊的形式出現,這可能會擾亂全球關係。
共同作者認為:「針對AGI的曼哈頓計劃假設競爭對手會默許長期的不平衡或毀滅性後果,而不會採取行動阻止。這種為了超級武器和全球控制的推動,可能會引發敵對對策和緊張局勢升級,從而破壞該策略聲稱要確保的穩定性。」
這份由美國AI領域三位關鍵人物撰寫的文件,發布之際正值美國國會委員會建議啟動「類似曼哈頓計劃」的舉措,以資助AGI發展,類比於1940年代美國的原子彈項目。美國能源部長克里斯·賴特(Chris Wright)最近宣稱,美國正處於「新的曼哈頓計劃的開端」,並在一個超級計算機基地與OpenAI聯合創始人格雷格·布羅克曼(Greg Brockman)共同發表講話。
「超智能策略」文件挑戰了近期多位美國政策和產業領袖的推動,他們認為政府支持的AGI計劃是與中國競爭的最佳方式。
施密特、王和亨德里克斯認為,美國在AGI問題上面臨類似於相互保證毀滅的對峙局面。正如各國避免壟斷核武器以防預先打擊,作者建議美國應謹慎對待試圖主導高度先進的AI系統。
雖然將AI與核武器相比可能顯得誇張,但全球領導人已將AI視為關鍵的軍事資產。五角大樓指出,AI正在加速軍方的殺傷鏈。
作者提出了「相互保證AI故障」(MAIM)的概念,即政府可能會採取先發制人的行動,以禁用具有威脅性的AI項目,而不是等待對手將AGI武器化。
施密特、王和亨德里克斯建議,美國應將重點從「贏得超智能競賽」轉向開發方法,以阻止其他國家創造超智能AI。他們建議政府應「擴大其網絡攻擊武器庫,以禁用其他國家控制的威脅性AI項目」,並限制對手獲得先進AI晶片和開源模型的途徑。
該文件突顯了AI政策界的分歧,一方是「末日論者」,他們認為災難性AI後果不可避免,主張放緩AI進展;另一方是「鴕鳥派」,他們推動加速AI發展並抱持樂觀態度。
作者提出了第三條路徑:對AGI發展採取謹慎態度,強調防禦策略。
施密特的立場尤其引人注目,因為他此前曾強調美國需要在AI發展中與中國積極競爭。就在幾個月前,施密特撰寫了一篇專欄文章,稱DeepSeek標誌著美中AI競賽的關鍵時刻。
儘管川普政府決心推進美國的AI發展,共同作者提醒我們,美國在AGI上的決定具有全球影響。
隨著世界觀察美國在AI領域的推進,施密特及其共同作者建議,更具防禦性的策略可能是更明智的選擇。
相關文章
非營利組織利用 AI 代理提升慈善募款工作
當各大科技公司將人工智慧「代理」推廣為企業生產力的助推器時,一家非營利組織正在展示人工智慧在社會公益方面的潛力。由 Open Philanthropy 支持的慈善研究組織 Sage Future 最近進行了一項創新實驗,展示 AI 模型如何協同進行慈善募款。該非營利組織將 OpenAI 的 GPT-4o 與 o1,以及 Anthropic 的 Claude 3.6 與 3.7 Sonnet 等
頂尖 AI 實驗室警告人類正在失去理解 AI 系統的能力
來自 OpenAI、Google DeepMind、Anthropic 和 Meta 的研究人員,史無前例地展現團結,擱置競爭分歧,就負責任的 AI 開發發出集體警告。來自這些典型競爭組織的 40 多位頂尖科學家共同撰寫了一份突破性的研究論文,強調確保 AI 決策過程透明化的窗口正在快速關閉。此次合作的重點在於現代人工智能系統的一項關鍵發展 - 在產生最終輸出之前,以人類可讀的語言闡明推理過程的新
AGI 將以突破性的通用語言革新人類思想
人工智能的出現帶來了轉變性的潛力,通過創建一個通用的語言框架來重塑人類的溝通方式。有別於專為特殊任務所設計的狹隘人工智慧系統,AGI 擁有跨越多領域的類人學習能力,使其能夠分析語言模式、文化背景與認知過程。這種獨特的組合可以建立一個統一的溝通系統,在加強人類認知本身的同時,也能消除文化隔閡。瞭解 AGI 的語言能力人工智慧代表著特定任務人工智慧系統的根本轉變。憑藉其抽象推理和跨學科知識轉移的
評論 (28)
0/200
WillieLee
2025-08-23 09:01:25
Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the AI race, right? 🐢
0
PaulLewis
2025-07-28 09:19:30
Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔
0
PeterRodriguez
2025-07-23 12:59:47
Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?
0
BruceSmith
2025-04-21 01:32:22
La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔
0
MichaelDavis
2025-04-19 02:29:08
A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚
0
MiaDavis
2025-04-19 00:24:42
에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚
0
在週三發布的一份政策文件中,前谷歌首席執行官埃里克·施密特(Eric Schmidt)與Scale AI首席執行官亞歷山大·王(Alexandr Wang)及AI安全中心主任丹·亨德里克斯(Dan Hendrycks)共同建議,美國不應啟動類似曼哈頓計劃的舉措,來開發具有「超人類」智能的AI系統,這類系統通常被稱為通用人工智能(AGI)。
該文件題為「超智能策略」,警告稱美國若試圖壟斷超智能AI,可能會引發中國的強烈反應,或許以網絡攻擊的形式出現,這可能會擾亂全球關係。
共同作者認為:「針對AGI的曼哈頓計劃假設競爭對手會默許長期的不平衡或毀滅性後果,而不會採取行動阻止。這種為了超級武器和全球控制的推動,可能會引發敵對對策和緊張局勢升級,從而破壞該策略聲稱要確保的穩定性。」
這份由美國AI領域三位關鍵人物撰寫的文件,發布之際正值美國國會委員會建議啟動「類似曼哈頓計劃」的舉措,以資助AGI發展,類比於1940年代美國的原子彈項目。美國能源部長克里斯·賴特(Chris Wright)最近宣稱,美國正處於「新的曼哈頓計劃的開端」,並在一個超級計算機基地與OpenAI聯合創始人格雷格·布羅克曼(Greg Brockman)共同發表講話。
「超智能策略」文件挑戰了近期多位美國政策和產業領袖的推動,他們認為政府支持的AGI計劃是與中國競爭的最佳方式。
施密特、王和亨德里克斯認為,美國在AGI問題上面臨類似於相互保證毀滅的對峙局面。正如各國避免壟斷核武器以防預先打擊,作者建議美國應謹慎對待試圖主導高度先進的AI系統。
雖然將AI與核武器相比可能顯得誇張,但全球領導人已將AI視為關鍵的軍事資產。五角大樓指出,AI正在加速軍方的殺傷鏈。
作者提出了「相互保證AI故障」(MAIM)的概念,即政府可能會採取先發制人的行動,以禁用具有威脅性的AI項目,而不是等待對手將AGI武器化。
施密特、王和亨德里克斯建議,美國應將重點從「贏得超智能競賽」轉向開發方法,以阻止其他國家創造超智能AI。他們建議政府應「擴大其網絡攻擊武器庫,以禁用其他國家控制的威脅性AI項目」,並限制對手獲得先進AI晶片和開源模型的途徑。
該文件突顯了AI政策界的分歧,一方是「末日論者」,他們認為災難性AI後果不可避免,主張放緩AI進展;另一方是「鴕鳥派」,他們推動加速AI發展並抱持樂觀態度。
作者提出了第三條路徑:對AGI發展採取謹慎態度,強調防禦策略。
施密特的立場尤其引人注目,因為他此前曾強調美國需要在AI發展中與中國積極競爭。就在幾個月前,施密特撰寫了一篇專欄文章,稱DeepSeek標誌著美中AI競賽的關鍵時刻。
儘管川普政府決心推進美國的AI發展,共同作者提醒我們,美國在AGI上的決定具有全球影響。
隨著世界觀察美國在AI領域的推進,施密特及其共同作者建議,更具防禦性的策略可能是更明智的選擇。



Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the AI race, right? 🐢




Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔




Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?




La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔




A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚




에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚












