首頁 消息 埃里克·施密特(Eric Sc​​hmidt)反對阿吉·曼哈頓(Agi Manhattan)項目

埃里克·施密特(Eric Sc​​hmidt)反對阿吉·曼哈頓(Agi Manhattan)項目

2025年04月10日
BrianMartinez
5

埃里克·施密特(Eric Sc​​hmidt)反對阿吉·曼哈頓(Agi Manhattan)項目

在周三發布的一份政策文件中,前Google首席執行官埃里克·施密特(Eric Sc​​hmidt)以及Scale AI首席執行官Alexandr Wang和AI安全總監Dan Hendrycks的中心建議不要美國發起曼哈頓項目風格的計劃,以開發具有“超級人類”情報的AI系統,通常稱為Agi。該論文的標題為“近電策略”,警告說,美國壟斷AI的努力可能會引起中國的強烈反應,這可能是以網絡攻擊的形式引起的,這可能會破壞全球關係。合著者認為:“曼哈頓AGI的一個項目假設競爭對手將默認持久的失衡或肥胖,而不是採取行動,而不是採取行動。最初是為了推動超級武器和全球控制風險的風險,促使敵對的反擊促進了敵對的反擊,並逐步升級了緊張局勢,從而使策略穩定穩定為穩定的穩定性。”本文由美國AI部門的三個關鍵數字寫成,在美國國會委員會提出了一項“曼哈頓項目式”倡議後不久到達,旨在為AGI發展提供資金,並與1940年代的美國原子彈項目相似。美國能源部長克里斯·賴特(Chris Wright)最近宣布,美國在AI上是“新曼哈頓項目的開始”,在超級計算機網站上與Openai聯合創始人Greg Brockman在他身邊發表講話。超級策略論文挑戰了幾位美國政策和行業領導人最近的推動,他們認為政府支持的AGI計劃是與中國保持同步的最佳方式。施密特(Schmidt),王(Wang)和亨德里克斯(Hendrycks)在類似於阿吉(Agi)的對峙的情況下看到了美國,類似於相互保證的破壞的概念。正如各國避免壟斷核武器以防止先發製人的罷工一樣,作者也認為,美國應該警惕急於統治高級AI系統。在將AI與核武器進行比較的同時,全球領導人已經將AI視為至關重要的軍事資產。五角大樓指出,AI正在加速軍隊的殺戮鏈。作者介紹了相互保證的AI故障(MAIM)的想法,政府可能會採取先發製人的行動來禁用威脅AI項目,而不是等待對手對AGI進行武器化。施密特(Schmidt),王(Wang)和亨德里克斯(Hendrycks)建議美國將其重點從“贏得比賽”轉變為開發方法,以阻止其他國家創建超級智能AI。他們建議政府應“擴大其網絡攻擊武器庫,以禁用由其他國家控制的AI項目”,並限制對手對先進的AI芯片和開源模型的訪問。該論文強調了“厄運”中AI政策界的分裂,他們認為災難性的AI成果是不可避免的,並且倡導了減慢AI的進步,而“ Ostriches”和“ ostriches”,他們推動加速AI的發展並希望獲得最佳狀態。作者提出了第三條途徑:強調防禦性策略的AGI發展的謹慎方法。施密特(Schmidt)尤其值得注意的是,他以前強調了美國在AI發展中與中國積極競爭的必要性。就在幾個月前,施密特(Schmidt)寫了一篇專欄文章,稱DeepSeek在美國 - 中國AI比賽中標誌著關鍵時刻。儘管特朗普政府決心推進美國的AI發展,但合著者提醒我們,美國對AGI的決定具有全球影響。正如世界觀察到美國進入AI的那樣,施密特和他的合著者認為,更具防禦性的策略可能是更明智的選擇。
相關文章
分析揭示了AI对中国的反应因语言而有所不同 分析揭示了AI对中国的反应因语言而有所不同 探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
Chatgpt主意使用用户名在某些人中引发了“令人毛骨悚然”的问题 Chatgpt主意使用用户名在某些人中引发了“令人毛骨悚然”的问题 Chatgpt的一些用户最近遇到了一个奇怪的新功能:聊天机器人偶尔在解决问题时使用他们的名字。这不是以前其通常行为的一部分,许多用户报告Chatgpt提到了他们的名字,而没有被告知该怎么称呼。意见
Openai增强了Chatgpt,以回忆以前的对话 Openai增强了Chatgpt,以回忆以前的对话 Openai在周四发表了一项重大宣布,内容涉及在Chatgpt中推出一个名为“ Memory”的新功能。这种漂亮的工具旨在通过记住您以前谈论的内容来使您与AI的聊天更为个性化。想象一下,每次开始新的转换时都不必重复自己
評論 (20)
0/200
LawrenceLee 2025年04月10日 15:01:10

Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!

DouglasRodriguez 2025年04月10日 15:01:10

エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!

HenryJackson 2025年04月10日 15:01:10

에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!

NicholasThomas 2025年04月10日 15:01:10

A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!

KennethRoberts 2025年04月10日 15:01:10

एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!

BruceWilson 2025年04月16日 01:34:13

Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀

OR