选项
首页 新闻 AI领导者讨论AGI:基于现实

AI领导者讨论AGI:基于现实

发布日期 发布日期 2025年05月09日
作者 作者 DanielThomas
浏览量 浏览量 0

AI领导者讨论AGI:基于现实

在最近与旧金山商界领袖的一次晚餐上,我抛出了一个问题,似乎让整个房间都凝固了:今天的人工智能是否有可能达到或超越人类的智能水平?这是一个比你想象中更容易引发争论的话题。

到了2025年,科技CEO们对大型语言模型(LLM)充满了乐观情绪,比如ChatGPT和Gemini背后的那些模型。他们坚信这些模型很快就能达到人类水平甚至超人类的智能。比如Anthropic的达里奥·阿莫代(Dario Amodei)就写过文章,建议到2026年,我们可能会看到在各个领域比诺贝尔奖得主更聪明的AI。与此同时,OpenAI的萨姆·阿尔特曼(Sam Altman)一直公开表示他知道如何构建“超级智能”AI,并预测这将大大加速科学发现。

但并不是每个人都对这种乐观的图景买账。一些AI领导者对LLM达到AGI,甚至超级智能持怀疑态度,除非有重大突破。这些怀疑者曾经沉默,现在却越来越多地发声。

AI社区中的怀疑主义

以Hugging Face的联合创始人兼首席科学官托马斯·沃尔夫(Thomas Wolf)为例。在最近的一篇文章中,他称阿莫代的愿景部分是“最好也只是幻想”。凭借他在统计和量子物理学的博士学位,沃尔夫认为,诺贝尔级的突破来自于提出新的问题,而不仅仅是回答已知的问题——这是AI擅长但在开创新想法方面并不出色的事。

“我很希望看到这个‘爱因斯坦模型’出现,但我们需要深入探讨如何实现它,”沃尔夫在接受TechCrunch采访时分享道。他写这篇文章是因为他觉得对AGI的炒作掩盖了对如何实现它进行认真讨论的需要。沃尔夫看到一个AI改变世界的未来,但不一定是达到人类智能水平或超级智能的未来。

AI社区常常被那些相信AGI的人和那些不相信的人所分裂,后者有时被贴上“反科技”或简单地被认为是悲观的标签。然而,沃尔夫认为自己是一个“有见地的乐观主义者”,推动AI进步的同时保持脚踏实地。

AI辩论中的其他声音

据报道,Google DeepMind的CEO德米斯·哈萨比斯(Demis Hassabis)告诉他的团队,AGI可能还需要十年时间,指出AI还有许多无法处理的任务。Meta的首席AI科学家扬·勒昆(Yann LeCun)也对LLM实现AGI表示怀疑,在Nvidia GTC上称这一想法是“无稽之谈”,并推动开发新的架构来支撑超级智能。

肯尼思·斯坦利(Kenneth Stanley),前OpenAI首席研究员,现任Lila Sciences的高管,正在致力于构建高级AI的细节工作。他的初创公司最近筹集了2亿美元,专注于自动化科学创新。斯坦利的工作深入探讨了AI产生原创、创意想法的能力——这一领域被称为开放性。

“我有点希望自己写了[沃尔夫的]那篇文章,因为它真的反映了我的感受,”斯坦利在接受TechCrunch采访时说。他同意沃尔夫的观点,知识渊博并不自动导致原创想法。

AI中的创造力作用

斯坦利认为创造力对AGI至关重要,但承认这是一个难题。虽然像阿莫代这样的乐观主义者强调AI“推理”模型是朝AGI迈出的一步,但斯坦利认为创造力需要一种不同的智能。“推理几乎与[创造力]背道而驰,”他解释说。“推理模型专注于达到特定的目标,这可能会限制创造力所需的那种机会主义思维。”

斯坦利建议,要构建真正智能的AI,我们需要在算法上复制人类对新想法的品味。虽然AI在数学和编程等答案明确的领域表现出色,但在更主观、创造性的任务上,它在没有“正确”答案的情况下表现不佳。

“人们在科学中避开[主观性]——这个词几乎是毒药,”斯坦利指出。“但没有什么能阻止我们[算法上]处理主观性。这只是数据流的一部分。”

他鼓励人们越来越关注开放性,Lila Sciences、Google DeepMind和AI初创公司Sakana的研究实验室都在处理这个问题。斯坦利看到更多人讨论AI中的创造力,但他认为前面的工作还有很多。

AI的现实主义者

沃尔夫和勒昆可能被认为是“AI现实主义者”:这些领导者以脚踏实地的态度对待AGI和超级智能的可行性问题。他们的目标不是否认AI的进步,而是激发关于是什么阻碍AI达到AGI和超级智能的更广泛讨论——并直接面对这些挑战。

相关文章
OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor OpenAI has launched a fierce legal counterattack against its co-founder, Elon Musk, and his competing AI company, xAI. In a dramatic escalation of their ongoing feud, OpenAI accuses Musk of waging a "relentless" and "malicious" campaign to undermine the company he helped start. According to court d
Law of Accelerating Returns Explained: Pathway to AGI Development Law of Accelerating Returns Explained: Pathway to AGI Development In a recent interview, Elon Musk shared his optimistic view on the timeline for the advent of Artificial General Intelligence (AGI), stating it could be as soon as *“3 to 6 years”*. Similarly, Demis Hassabis, CEO of Google's DeepMind, expressed at The Wall Street Journal’s Future of Everything Festi
New AGI Test Proves Challenging, Stumps Majority of AI Models New AGI Test Proves Challenging, Stumps Majority of AI Models The Arc Prize Foundation, co-founded by renowned AI researcher François Chollet, recently unveiled a new benchmark called ARC-AGI-2 in a blog post. This test aims to push the boundaries of AI's general intelligence, and so far, it's proving to be a tough nut to crack for most AI models.According to
评论 (0)
0/200
返回顶部
OR