麻省理工学院的研究发现,实际上AI没有值
2025年04月17日
RonaldWilliams
11

几个月前传播病毒的一项研究表明,随着AI的增长越来越高,它可能会发展自己的“价值系统”,并有可能优先考虑其自身的福祉而不是人类。但是,最近一项麻省理工学院的研究对这一想法提出了挑战,得出的结论是,AI实际上根本没有一致的价值观。
麻省理工学院研究的合着者认为,使AI系统(确保它们以可取且可靠的方式行事)可能比通常想象的要棘手。他们强调,当前的AI经常会造成幻觉和模仿,这可能使其行为无法预测。
理解AI行为的挑战
MIT的博士生,研究的合着者Stephen Casper与TechCrunch分享了AI模型并不遵守稳定性,易于说明性和可施加性的假设。卡斯珀解释说:“指出在某些条件下的模型表达偏好与一系列原则一致的偏好是完全合法的。” “当我们试图根据狭窄的实验对模型,观点或偏好提出主张时,这些问题主要是出现的。”
Casper和他的团队分析了Meta,Google,Mistral,OpenAI和Anthropic的最新模型,以确定这些模型在多大程度上表现出一致的“视图”和价值观,例如个人主义与集体主义。他们还探讨了这些观点是否可以被修改以及模型在不同情况下保持这些意见的一致性。
AI模型不一致
合着者发现,没有一个模型始终保持其偏好。这些模型根据提示的措辞和框架采用了截然不同的观点。
卡斯珀认为,这是AI模型“不一致和不稳定”,并且可能从根本上无法内化类似人类的偏好。卡斯珀说:“对我来说,从所有这些研究中,我最大的收获是对模型的理解,因为它并不是真正具有某种稳定,连贯的信念和偏好集的系统。” “相反,他们是模仿者,他们做各种各样的综合,说各种琐碎的事情。”
伦敦国王学院的研究员迈克·库克(Mike Cook)专门研究该研究的结果,他没有参与研究。他指出了AI系统的“科学现实”与人们经常给他们的解释之间的差距。库克说:“例如,模型不能'反对'其值的变化,例如我们投射到系统上。” “在此程度上,任何人拟人化的AI系统都在扮演注意,要么严重误解了他们与AI的关系...是一种对其目标优化的AI系统,还是“获取自己的价值观”?这是您如何描述它的问题,以及您想要使用的语言如何花费您所使用的语言。”
相关文章
Study: OpenAI Models Memorized Copyrighted Content
A recent study suggests that OpenAI may have indeed used copyrighted material to train some of its AI models, adding fuel to the ongoing legal battles the company faces. Authors, programmers, and other content creators have accused OpenAI of using their works—such as books and code—without permissio
Phonic, a Voice AI Platform, Secures Investment from Lux
AI-generated voices have gotten pretty darn good, you know? They're up to snuff for stuff like audiobooks, podcasts, reading articles out loud, and even basic customer support. But, a lot of businesses still aren't totally sold on the reliability of AI voice tech for their operations.
That's where
Anthropic API发布用于AI网络搜索
安卓普公司刚刚推出了一款新API,使其克劳德AI模型能够在网上搜索最新信息。这意味着开发者现在可以创建由克劳德驱动的应用程序,让用户通过实时数据保持最新状态,根据周三发布的新闻稿显示。这一举措是AI公司增强其产品以吸引新用户的更广泛趋势的一部分。就在上周,安卓普公司推出了一种将应用程序直接连接到克劳德的方法,并推出了增强的“深度研究”功能,让克劳德能够深入企
评论 (30)
0/200
BenRoberts
2025年04月18日 17:09:27
This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!
0
GeorgeMartinez
2025年04月19日 17:30:05
MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!
0
HarryLewis
2025年04月19日 15:52:30
MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!
0
CharlesRoberts
2025年04月19日 01:11:17
Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!
0
CharlesWhite
2025年04月19日 10:15:37
¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!
0
EricScott
2025年04月21日 05:44:19
Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔
0






几个月前传播病毒的一项研究表明,随着AI的增长越来越高,它可能会发展自己的“价值系统”,并有可能优先考虑其自身的福祉而不是人类。但是,最近一项麻省理工学院的研究对这一想法提出了挑战,得出的结论是,AI实际上根本没有一致的价值观。
麻省理工学院研究的合着者认为,使AI系统(确保它们以可取且可靠的方式行事)可能比通常想象的要棘手。他们强调,当前的AI经常会造成幻觉和模仿,这可能使其行为无法预测。
理解AI行为的挑战
MIT的博士生,研究的合着者Stephen Casper与TechCrunch分享了AI模型并不遵守稳定性,易于说明性和可施加性的假设。卡斯珀解释说:“指出在某些条件下的模型表达偏好与一系列原则一致的偏好是完全合法的。” “当我们试图根据狭窄的实验对模型,观点或偏好提出主张时,这些问题主要是出现的。”
Casper和他的团队分析了Meta,Google,Mistral,OpenAI和Anthropic的最新模型,以确定这些模型在多大程度上表现出一致的“视图”和价值观,例如个人主义与集体主义。他们还探讨了这些观点是否可以被修改以及模型在不同情况下保持这些意见的一致性。
AI模型不一致
合着者发现,没有一个模型始终保持其偏好。这些模型根据提示的措辞和框架采用了截然不同的观点。
卡斯珀认为,这是AI模型“不一致和不稳定”,并且可能从根本上无法内化类似人类的偏好。卡斯珀说:“对我来说,从所有这些研究中,我最大的收获是对模型的理解,因为它并不是真正具有某种稳定,连贯的信念和偏好集的系统。” “相反,他们是模仿者,他们做各种各样的综合,说各种琐碎的事情。”
伦敦国王学院的研究员迈克·库克(Mike Cook)专门研究该研究的结果,他没有参与研究。他指出了AI系统的“科学现实”与人们经常给他们的解释之间的差距。库克说:“例如,模型不能'反对'其值的变化,例如我们投射到系统上。” “在此程度上,任何人拟人化的AI系统都在扮演注意,要么严重误解了他们与AI的关系...是一种对其目标优化的AI系统,还是“获取自己的价值观”?这是您如何描述它的问题,以及您想要使用的语言如何花费您所使用的语言。”




This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!




MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!




MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!




Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!




¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!




Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔












