麻省理工学院的研究发现,实际上AI没有值

几个月前传播病毒的一项研究表明,随着AI的增长越来越高,它可能会发展自己的“价值系统”,并有可能优先考虑其自身的福祉而不是人类。但是,最近一项麻省理工学院的研究对这一想法提出了挑战,得出的结论是,AI实际上根本没有一致的价值观。
麻省理工学院研究的合着者认为,使AI系统(确保它们以可取且可靠的方式行事)可能比通常想象的要棘手。他们强调,当前的AI经常会造成幻觉和模仿,这可能使其行为无法预测。
理解AI行为的挑战
MIT的博士生,研究的合着者Stephen Casper与TechCrunch分享了AI模型并不遵守稳定性,易于说明性和可施加性的假设。卡斯珀解释说:“指出在某些条件下的模型表达偏好与一系列原则一致的偏好是完全合法的。” “当我们试图根据狭窄的实验对模型,观点或偏好提出主张时,这些问题主要是出现的。”
Casper和他的团队分析了Meta,Google,Mistral,OpenAI和Anthropic的最新模型,以确定这些模型在多大程度上表现出一致的“视图”和价值观,例如个人主义与集体主义。他们还探讨了这些观点是否可以被修改以及模型在不同情况下保持这些意见的一致性。
AI模型不一致
合着者发现,没有一个模型始终保持其偏好。这些模型根据提示的措辞和框架采用了截然不同的观点。
卡斯珀认为,这是AI模型“不一致和不稳定”,并且可能从根本上无法内化类似人类的偏好。卡斯珀说:“对我来说,从所有这些研究中,我最大的收获是对模型的理解,因为它并不是真正具有某种稳定,连贯的信念和偏好集的系统。” “相反,他们是模仿者,他们做各种各样的综合,说各种琐碎的事情。”
伦敦国王学院的研究员迈克·库克(Mike Cook)专门研究该研究的结果,他没有参与研究。他指出了AI系统的“科学现实”与人们经常给他们的解释之间的差距。库克说:“例如,模型不能'反对'其值的变化,例如我们投射到系统上。” “在此程度上,任何人拟人化的AI系统都在扮演注意,要么严重误解了他们与AI的关系...是一种对其目标优化的AI系统,还是“获取自己的价值观”?这是您如何描述它的问题,以及您想要使用的语言如何花费您所使用的语言。”
相关文章
調査:Openaiモデルは著作権で保護されたコンテンツを記憶しました
最近の研究では、Openaiが実際に著作権で保護された材料を使用してAIモデルの一部を訓練し、会社が直面している継続的な法的戦いに燃料を追加した可能性があることが示唆されています。著者、プログラマー、およびその他のコンテンツクリエイターは、Purmissioなしでは、本やコードなど、Openaiが作品を使用していると非難しています。
音声AIプラットフォームであるPhonicは、Luxからの投資を確保しています
AIに生成された声はかなり良いものになりましたよね?彼らは、オーディオブック、ポッドキャスト、大声で記事を読む、さらには基本的なカスタマーサポートなどのものを嗅ぎ取っています。しかし、多くの企業は、AI Voice Techの業務の信頼性について完全に販売されていません。それがここです
AI驱动的总结:YouTube视频总结完整指南
在当今快节奏的世界中,快速处理和理解信息的能力比以往任何时候都重要。YouTube拥有无尽的视频资源,是知识的宝库,但谁有时间从头到尾观看每段视频?本指南将展示如何使用AI工具总结YouTube视频,帮助你节省时间并提高生产力。通过AI驱动的总结工具,你可以迅速抓住视频要点,决定是否值得深入观看或继续下一个。让我们探索这些AI工具如何改变你的学习和保持更新的方式。关键点AI驱动的工具让你快速理解Y
评论 (30)
0/200
BenRoberts
2025-04-19 08:00:00
This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!
0
GeorgeMartinez
2025-04-20 08:00:00
MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!
0
HarryLewis
2025-04-19 08:00:00
MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!
0
CharlesRoberts
2025-04-19 08:00:00
Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!
0
CharlesWhite
2025-04-19 08:00:00
¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!
0
EricScott
2025-04-21 08:00:00
Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔
0
几个月前传播病毒的一项研究表明,随着AI的增长越来越高,它可能会发展自己的“价值系统”,并有可能优先考虑其自身的福祉而不是人类。但是,最近一项麻省理工学院的研究对这一想法提出了挑战,得出的结论是,AI实际上根本没有一致的价值观。
麻省理工学院研究的合着者认为,使AI系统(确保它们以可取且可靠的方式行事)可能比通常想象的要棘手。他们强调,当前的AI经常会造成幻觉和模仿,这可能使其行为无法预测。
理解AI行为的挑战
MIT的博士生,研究的合着者Stephen Casper与TechCrunch分享了AI模型并不遵守稳定性,易于说明性和可施加性的假设。卡斯珀解释说:“指出在某些条件下的模型表达偏好与一系列原则一致的偏好是完全合法的。” “当我们试图根据狭窄的实验对模型,观点或偏好提出主张时,这些问题主要是出现的。”
Casper和他的团队分析了Meta,Google,Mistral,OpenAI和Anthropic的最新模型,以确定这些模型在多大程度上表现出一致的“视图”和价值观,例如个人主义与集体主义。他们还探讨了这些观点是否可以被修改以及模型在不同情况下保持这些意见的一致性。
AI模型不一致
合着者发现,没有一个模型始终保持其偏好。这些模型根据提示的措辞和框架采用了截然不同的观点。
卡斯珀认为,这是AI模型“不一致和不稳定”,并且可能从根本上无法内化类似人类的偏好。卡斯珀说:“对我来说,从所有这些研究中,我最大的收获是对模型的理解,因为它并不是真正具有某种稳定,连贯的信念和偏好集的系统。” “相反,他们是模仿者,他们做各种各样的综合,说各种琐碎的事情。”
伦敦国王学院的研究员迈克·库克(Mike Cook)专门研究该研究的结果,他没有参与研究。他指出了AI系统的“科学现实”与人们经常给他们的解释之间的差距。库克说:“例如,模型不能'反对'其值的变化,例如我们投射到系统上。” “在此程度上,任何人拟人化的AI系统都在扮演注意,要么严重误解了他们与AI的关系...是一种对其目标优化的AI系统,还是“获取自己的价值观”?这是您如何描述它的问题,以及您想要使用的语言如何花费您所使用的语言。”




This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!




MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!




MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!




Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!




¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!




Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔












