首页 新闻 埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目

埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目

2025年04月10日
BrianMartinez
5

埃里克·施密特(Eric Sc​​hmidt)反对阿吉·曼哈顿(Agi Manhattan)项目

在周三发布的一份政策文件中,前Google首席执行官埃里克·施密特(Eric Sc​​hmidt)以及Scale AI首席执行官Alexandr Wang和AI安全总监Dan Hendrycks的中心建议不要美国发起曼哈顿项目风格的计划,以开发具有“超级人类”情报的AI系统,通常称为Agi。该论文的标题为“近电策略”,警告说,美国垄断AI的努力可能会引起中国的强烈反应,这可能是以网络攻击的形式引起的,这可能会破坏全球关系。合着者认为:“曼哈顿AGI的一个项目假设竞争对手将默认持久的失衡或肥胖,而不是采取行动,而不是采取行动。最初是为了推动超级武器和全球控制风险的风险,促使敌对的反击促进了敌对的反击,并逐步升级了紧张局势,从而使策略稳定稳定为稳定的稳定性。”本文由美国AI部门的三个关键数字写成,在美国国会委员会提出了一项“曼哈顿项目式”倡议后不久到达,旨在为AGI发展提供资金,并与1940年代的美国原子弹项目相似。美国能源部长克里斯·赖特(Chris Wright)最近宣布,美国在AI上是“新曼哈顿项目的开始”,在超级计算机网站上与Openai联合创始人Greg Brockman在他身边发表讲话。超级策略论文挑战了几位美国政策和行业领导人最近的推动,他们认为政府支持的AGI计划是与中国保持同步的最佳方式。施密特(Schmidt),王(Wang)和亨德里克斯(Hendrycks)在类似于阿吉(Agi)的对峙的情况下看到了美国,类似于相互保证的破坏的概念。正如各国避免垄断核武器以防止先发制人的罢工一样,作者也认为,美国应该警惕急于统治高级AI系统。在将AI与核武器进行比较的同时,全球领导人已经将AI视为至关重要的军事资产。五角大楼指出,AI正在加速军队的杀戮链。作者介绍了相互保证的AI故障(MAIM)的想法,政府可能会采取先发制人的行动来禁用威胁AI项目,而不是等待对手对AGI进行武器化。施密特(Schmidt),王(Wang)和亨德里克斯(Hendrycks)建议美国将其重点从“赢得比赛”转变为开发方法,以阻止其他国家创建超级智能AI。他们建议政府应“扩大其网络攻击武器库,以禁用由其他国家控制的AI项目”,并限制对手对先进的AI芯片和开源模型的访问。该论文强调了“厄运”中AI政策界的分裂,他们认为灾难性的AI成果是不可避免的,并且倡导了减慢AI的进步,而“ Ostriches”和“ ostriches”,他们推动加速AI的发展并希望获得最佳状态。作者提出了第三条途径:强调防御性策略的AGI发展的谨慎方法。施密特(Schmidt)尤其值得注意的是,他以前强调了美国在AI发展中与中国积极竞争的必要性。就在几个月前,施密特(Schmidt)写了一篇专栏文章,称DeepSeek在美国 - 中国AI比赛中标志着关键时刻。尽管特朗普政府决心推进美国的AI发展,但合着者提醒我们,美国对AGI的决定具有全球影响。正如世界观察到美国进入AI的那样,施密特和他的合着者认为,更具防御性的策略可能是更明智的选择。
相关文章
分析揭示了AI对中国的反应因语言而有所不同 分析揭示了AI对中国的反应因语言而有所不同 探索AI审查制度:基于语言的分析毫不秘密,即来自中国实验室(例如DeepSeek)的AI模型受到严格的审查规则。 2023年来自中国执政党的法规明确禁止这些模型产生可能破坏国家统一左右的内容
Chatgpt主意使用用户名在某些人中引发了“令人毛骨悚然”的问题 Chatgpt主意使用用户名在某些人中引发了“令人毛骨悚然”的问题 Chatgpt的一些用户最近遇到了一个奇怪的新功能:聊天机器人偶尔在解决问题时使用他们的名字。这不是以前其通常行为的一部分,许多用户报告Chatgpt提到了他们的名字,而没有被告知该怎么称呼。意见
Openai增强了Chatgpt,以回忆以前的对话 Openai增强了Chatgpt,以回忆以前的对话 Openai在周四发表了一项重大宣布,内容涉及在Chatgpt中推出一个名为“ Memory”的新功能。这种漂亮的工具旨在通过记住您以前谈论的内容来使您与AI的聊天更为个性化。想象一下,每次开始新的转换时都不必重复自己
评论 (20)
0/200
LawrenceLee 2025年04月10日 15:01:10

Eric Schmidt's stance on not rushing into a Manhattan Project for AGI makes sense. We need to be careful with superhuman AI. It's a bit scary to think about, but I agree we should take our time. Let's not mess this up!

DouglasRodriguez 2025年04月10日 15:01:10

エリック・シュミットがAGIのマンハッタン・プロジェクトに反対する立場は理解できます。超人的なAIには慎重であるべきです。少し恐ろしいですが、時間をかけて進めるべきだと思います。これを台無しにしないようにしましょう!

HenryJackson 2025年04月10日 15:01:10

에릭 슈미트가 AGI의 맨해튼 프로젝트에 반대하는 입장은 이해가 갑니다. 초인적인 AI에 대해 신중해야 합니다. 조금 무섭지만, 시간을 들여 진행해야 한다고 생각해요. 이것을 망치지 말아야죠!

NicholasThomas 2025年04月10日 15:01:10

A posição de Eric Schmidt contra um Projeto Manhattan para AGI faz sentido. Precisamos ser cuidadosos com a IA super-humana. É um pouco assustador pensar nisso, mas concordo que devemos levar nosso tempo. Vamos não estragar isso!

KennethRoberts 2025年04月10日 15:01:10

एरिक श्मिट का AGI के लिए मैनहट्टन प्रोजेक्ट का विरोध करना समझ में आता है। हमें सुपरह्यूमन AI के साथ सावधान रहना चाहिए। इसके बारे में सोचना थोड़ा डरावना है, लेकिन मैं सहमत हूँ कि हमें अपना समय लेना चाहिए। इसे खराब न करें!

BruceWilson 2025年04月16日 01:34:13

Eric Schmidt's take on not rushing into an AGI Manhattan Project makes a lot of sense. We don't need superhuman AI right now, do we? But I wish the paper had more concrete suggestions on what to do instead. Still, food for thought! 🤔🚀

OR