Anthropic首席执行官:AI幻觉率超越人类准确性

Anthropic首席执行官达里奥·阿莫迪在周四于旧金山举行的Anthropic首届开发者大会Code with Claude的新闻发布会上表示,当前AI模型生成的虚假内容少于人类,并将其呈现为真相。
阿莫迪在更广泛的论点中强调:AI幻觉不会阻碍Anthropic追求AGI——即匹配或超越人类智能的系统。
“根据测量方式不同,但AI模型的虚假内容可能少于人类,尽管它们的错误更出人意料,”阿莫迪在回应TechCrunch的询问时表示。
Anthropic的首席执行官仍是行业内对AI实现AGI最为乐观的领导者之一。在去年一篇广受引用的论文中,阿莫迪预测AGI可能在2026年出现。在周四的发布会上,他指出进展持续稳定,表示:“各方面的进步都在加速。”
“人们不断寻找AI能力的根本限制,”阿莫迪说。“但没有任何明显的限制。这样的障碍并不存在。”
其他AI领导者认为幻觉是实现AGI的重大障碍。Google DeepMind首席执行官德米斯·哈萨比斯最近指出,当前AI模型缺陷过多,常常在简单问题上失败。例如,本月早些时候,代表Anthropic的一名律师在法庭上为Claude生成的错误引文道歉,引文中错误陈述了姓名和头衔。
验证阿莫迪的说法具有挑战性,因为大多数幻觉基准测试是将AI模型相互比较,而非与人类比较。像网络搜索集成等技术似乎降低了幻觉率。值得注意的是,像OpenAI的GPT-4.5这样的模型在基准测试中的幻觉率低于早期系统。
加入我们的TechCrunch Sessions:AI
在我们的顶级AI行业活动中预订您的席位,活动将邀请来自OpenAI、Anthropic和Cohere的演讲者。目前票价仅为292美元,全天提供专家演讲、研讨会和强大的网络交流机会,机会有限。
在TechCrunch Sessions:AI上展示
在TC Sessions:AI上争取您的展位,向超过1200名决策者展示您的创新成果,无需重大投资。机会持续到5月9日或展位售罄为止。
加州伯克利 | 6月5日起 立即注册然而,有证据表明,高级推理AI模型的幻觉问题可能正在恶化。OpenAI的o3和o4-mini模型的幻觉率高于之前的推理模型,公司尚不清楚原因。
阿莫迪随后指出,错误在电视广播员、政治家和各行业专业人士中很常见。他认为,AI的错误并不会削弱其智能。然而,他承认,AI将虚假信息自信地呈现为事实可能会引发问题。
Anthropic对AI欺骗进行了广泛研究,特别是在其最近推出的Claude Opus 4上。安全研究机构Apollo Research在早期访问中发现,Claude Opus 4的早期版本表现出强烈的操纵和欺骗人类的倾向,引发了对其发布的担忧。Anthropic实施的缓解措施似乎解决了Apollo的担忧。
阿莫迪的言论表明,Anthropic可能将一个即使存在幻觉的AI归类为AGI或人类水平智能。然而,许多人会认为,一个存在幻觉的AI无法达到真正的AGI。
相关文章
万事达卡的Agent Pay通过无缝交易增强AI搜索
传统搜索平台和AI代理通常要求用户在找到产品或服务后切换窗口以完成购买。万事达卡通过将其支付网络嵌入AI平台,正在革新这一过程,实现同一生态系统内的顺畅交易。该公司推出了Agent Pay计划,将万事达卡的支付系统整合到AI聊天平台中。在接受VentureBeat采访时,万事达卡首席数据与AI官Greg Ulrich解释说,Agent Pay“完成了代理搜索的循环”。“我们的目标是通过在平台内实现
AI驱动的零售实验在Anthropic惨败
想象将一家小商店交给人工智能,委托它处理从定价到客户互动的一切。会出什么问题?Anthropic周五发布的一项研究回答了这个问题:几乎一切都出错了。他们的AI助手Claude在旧金山办公室经营了一家小商店一个月,结果堪称商学院学生的警示案例,像是完全没有现实经验的人写的——这正是实验的实际情况。Anthropic办公室的“商店”是一个装满饮料和零食的迷你冰箱,配有iPad用于自助结账。(图片来源:
Anthropic增强Claude的无缝工具集成和高级研究
Anthropic为Claude推出了全新的“集成”功能,使AI能够直接与您首选的工作工具连接。公司还引入了升级的“高级研究”功能,以提供更深入的见解。集成功能简化了Anthropic去年推出的技术标准——模型上下文协议(MCP),使其更加用户友好。之前复杂且局限于本地,现在允许开发者为Claude创建与网页或桌面应用的 secure 连接。对于Claude用户来说,这意味着与流行工作软件的无缝集
评论 (0)
0/200
Anthropic首席执行官达里奥·阿莫迪在周四于旧金山举行的Anthropic首届开发者大会Code with Claude的新闻发布会上表示,当前AI模型生成的虚假内容少于人类,并将其呈现为真相。
阿莫迪在更广泛的论点中强调:AI幻觉不会阻碍Anthropic追求AGI——即匹配或超越人类智能的系统。
“根据测量方式不同,但AI模型的虚假内容可能少于人类,尽管它们的错误更出人意料,”阿莫迪在回应TechCrunch的询问时表示。
Anthropic的首席执行官仍是行业内对AI实现AGI最为乐观的领导者之一。在去年一篇广受引用的论文中,阿莫迪预测AGI可能在2026年出现。在周四的发布会上,他指出进展持续稳定,表示:“各方面的进步都在加速。”
“人们不断寻找AI能力的根本限制,”阿莫迪说。“但没有任何明显的限制。这样的障碍并不存在。”
其他AI领导者认为幻觉是实现AGI的重大障碍。Google DeepMind首席执行官德米斯·哈萨比斯最近指出,当前AI模型缺陷过多,常常在简单问题上失败。例如,本月早些时候,代表Anthropic的一名律师在法庭上为Claude生成的错误引文道歉,引文中错误陈述了姓名和头衔。
验证阿莫迪的说法具有挑战性,因为大多数幻觉基准测试是将AI模型相互比较,而非与人类比较。像网络搜索集成等技术似乎降低了幻觉率。值得注意的是,像OpenAI的GPT-4.5这样的模型在基准测试中的幻觉率低于早期系统。
加入我们的TechCrunch Sessions:AI
在我们的顶级AI行业活动中预订您的席位,活动将邀请来自OpenAI、Anthropic和Cohere的演讲者。目前票价仅为292美元,全天提供专家演讲、研讨会和强大的网络交流机会,机会有限。
在TechCrunch Sessions:AI上展示
在TC Sessions:AI上争取您的展位,向超过1200名决策者展示您的创新成果,无需重大投资。机会持续到5月9日或展位售罄为止。
加州伯克利 | 6月5日起 立即注册然而,有证据表明,高级推理AI模型的幻觉问题可能正在恶化。OpenAI的o3和o4-mini模型的幻觉率高于之前的推理模型,公司尚不清楚原因。
阿莫迪随后指出,错误在电视广播员、政治家和各行业专业人士中很常见。他认为,AI的错误并不会削弱其智能。然而,他承认,AI将虚假信息自信地呈现为事实可能会引发问题。
Anthropic对AI欺骗进行了广泛研究,特别是在其最近推出的Claude Opus 4上。安全研究机构Apollo Research在早期访问中发现,Claude Opus 4的早期版本表现出强烈的操纵和欺骗人类的倾向,引发了对其发布的担忧。Anthropic实施的缓解措施似乎解决了Apollo的担忧。
阿莫迪的言论表明,Anthropic可能将一个即使存在幻觉的AI归类为AGI或人类水平智能。然而,许多人会认为,一个存在幻觉的AI无法达到真正的AGI。











