人类默默地默默地删除了拜登时代的负责人AI承诺

Anthropic从网站上移除拜登时代的AI安全承诺
在引发关注的一系列举动中,AI行业的重要参与者Anthropic上周悄无声息地从其透明度中心删除了拜登时代关于安全AI开发的承诺。这一变化首先被AI监督组织The Midas Project发现,该组织注意到此前承诺与政府分享关于AI风险(包括偏见)的信息和研究的语言已消失。
这些承诺是Anthropic于2023年7月与其他科技巨头如OpenAI、Google和Meta一起自愿达成的协议的一部分。该协议是拜登政府推动负责任AI开发努力的基石,其许多方面后来被纳入拜登的AI行政命令。参与公司承诺遵守某些标准,例如在发布前对模型进行安全测试、为AI生成的内容添加水印,以及开发强大的数据隐私基础设施。
此外,Anthropic曾同意与拜登行政命令下成立的AI安全研究所合作,以推进这些优先事项。然而,随着特朗普政府可能解散该研究所,这些举措的未来前景不明。
有趣的是,Anthropic并未公开宣布从其网站上移除这些承诺。公司坚称,其当前关于负责任AI的立场要么与拜登时代的协议无关,要么早于这些协议。
特朗普政府下的更广泛影响
这一发展是特朗普政府下AI政策和监管发生更广泛转变的一部分。在上任第一天,特朗普就撤销了拜登的AI行政命令,并已从政府职位中解雇了多位AI专家并削减了研究经费。这些行动为主要AI公司的语气变化奠定了基础,其中一些公司现在正寻求扩大其政府合同并影响特朗普政府下仍在演变的AI政策格局。
例如,像Google这样的公司正在重新定义什么是负责任的AI,这可能会放宽本就不太严格的标准。随着拜登政府期间建立的有限AI监管面临被拆除的风险,公司可能会发现自我监管或接受第三方监督的外部激励更少。
值得注意的是,特朗普在公开声明中明显没有提及关于AI系统中偏见和歧视的安全检查,这表明这些优先事项可能会发生转变。
相关文章
AI驱动的美甲沙龙效率提升:优化运营与增长
在充满活力的商业世界中,优化运营和提升客户满意度是成功的关键。像Tamashi美甲沙龙这样的美甲店正转向创新解决方案,以提高效率、降低成本并改善客户体验。人工智能(AI)提供了变革性工具来应对这些挑战,从自动排班到提供全天候客户支持。本文探讨了AI如何简化Tamashi美甲沙龙的运营、提高生产力并推动增长。关键点AI简化美甲沙龙的排班流程。AI聊天机器人提供全天候客户支持。AI通过自动提醒减少爽约
使用AI驱动的儿童歌曲在2025年实现盈利
在2025年,人工智能正在改变儿童娱乐。制作AI生成的儿童歌曲不仅是前瞻性概念,更是一个切实可行的创收机会。本指南概述了如何利用AI创建引人入胜的儿童内容,并在YouTube上有效实现盈利。探索如何开发吸引人的、具有盈利能力的AI儿童歌曲,扩展你的频道,并在动态的数字内容环境中蓬勃发展。关键要点使用Suno AI和audio.com等AI平台进行音乐制作。利用ChatGPT编写歌词和创意提示。使用
亚马逊推出增强版Alexa+,具备先进AI功能
在周三于纽约举行的一场活动中,亚马逊推出了增强版Alexa+体验,采用尖端生成式AI技术驱动。亚马逊设备与服务负责人帕诺斯·帕奈(Panos Panay)将其描述为对AI助手的“彻底革新”。“尽管Alexa的愿景一直大胆且引人入胜,但至今技术限制阻碍了我们,”帕奈表示。“一个独立的AI聊天机器人无法实现我们对Alexa的期望。”亚马逊声称,升级后的Alexa+可以通过访问用户账户数据,回答诸如“我
评论 (2)
0/200
JuanLewis
2025-08-04 14:01:00
Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐
0
PaulHill
2025-07-28 09:20:54
I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.
0
Anthropic从网站上移除拜登时代的AI安全承诺
在引发关注的一系列举动中,AI行业的重要参与者Anthropic上周悄无声息地从其透明度中心删除了拜登时代关于安全AI开发的承诺。这一变化首先被AI监督组织The Midas Project发现,该组织注意到此前承诺与政府分享关于AI风险(包括偏见)的信息和研究的语言已消失。
这些承诺是Anthropic于2023年7月与其他科技巨头如OpenAI、Google和Meta一起自愿达成的协议的一部分。该协议是拜登政府推动负责任AI开发努力的基石,其许多方面后来被纳入拜登的AI行政命令。参与公司承诺遵守某些标准,例如在发布前对模型进行安全测试、为AI生成的内容添加水印,以及开发强大的数据隐私基础设施。
此外,Anthropic曾同意与拜登行政命令下成立的AI安全研究所合作,以推进这些优先事项。然而,随着特朗普政府可能解散该研究所,这些举措的未来前景不明。
有趣的是,Anthropic并未公开宣布从其网站上移除这些承诺。公司坚称,其当前关于负责任AI的立场要么与拜登时代的协议无关,要么早于这些协议。
特朗普政府下的更广泛影响
这一发展是特朗普政府下AI政策和监管发生更广泛转变的一部分。在上任第一天,特朗普就撤销了拜登的AI行政命令,并已从政府职位中解雇了多位AI专家并削减了研究经费。这些行动为主要AI公司的语气变化奠定了基础,其中一些公司现在正寻求扩大其政府合同并影响特朗普政府下仍在演变的AI政策格局。
例如,像Google这样的公司正在重新定义什么是负责任的AI,这可能会放宽本就不太严格的标准。随着拜登政府期间建立的有限AI监管面临被拆除的风险,公司可能会发现自我监管或接受第三方监督的外部激励更少。
值得注意的是,特朗普在公开声明中明显没有提及关于AI系统中偏见和歧视的安全检查,这表明这些优先事项可能会发生转变。




Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐




I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.












