選項
首頁
消息
麻省理工學院的研究發現,實際上AI沒有值

麻省理工學院的研究發現,實際上AI沒有值

2025-04-17
60

麻省理工學院的研究發現,實際上AI沒有值

幾個月前傳播病毒的一項研究表明,隨著AI的增長越來越高,它可能會發展自己的“價值系統”,並有可能優先考慮其自身的福祉而不是人類。但是,最近一項麻省理工學院的研究對這一想法提出了挑戰,得出的結論是,AI實際上根本沒有一致的價值觀。

麻省理工學院研究的合著者認為,使AI系統(確保它們以可取且可靠的方式行事)可能比通常想像的要棘手。他們強調,當前的AI經常會造成幻覺和模仿,這可能使其行為無法預測。

理解AI行為的挑戰

MIT的博士生,研究的合著者Stephen Casper與TechCrunch分享了AI模型並不遵守穩定性,易於說明性和可施加性的假設。卡斯珀解釋說:“指出在某些條件下的模型表達偏好與一系列原則一致的偏好是完全合法的。” “當我們試圖根據狹窄的實驗對模型,觀點或偏好提出主張時,這些問題主要是出現的。”

Casper和他的團隊分析了Meta,Google,Mistral,OpenAI和Anthropic的最新模型,以確定這些模型在多大程度上表現出一致的“視圖”和價值觀,例如個人主義與集體主義。他們還探討了這些觀點是否可以被修改以及模型在不同情況下保持這些意見的一致性。

AI模型不一致

合著者發現,沒有一個模型始終保持其偏好。這些模型根據提示的措辭和框架採用了截然不同的觀點。

卡斯珀認為,這是AI模型“不一致和不穩定”,並且可能從根本上無法內化類似人類的偏好。卡斯珀說:“對我來說,從所有這些研究中,我最大的收穫是對模型的理解,因為它並不是真正具有某種穩定,連貫的信念和偏好集的系統。” “相反,他們是模仿者,他們做各種各樣的綜合,說各種瑣碎的事情。”

倫敦國王學院的研究員邁克·庫克(Mike Cook)專門研究該研究的結果,他沒有參與研究。他指出了AI系統的“科學現實”與人們經常給他們的解釋之間的差距。庫克說:“例如,模型不能'反對'其值的變化,例如我們投射到系統上。” “在此程度上,任何人擬人化的AI系統都在扮演注意,要么嚴重誤解了他們與AI的關係...是一種對其目標優化的AI系統,還是“獲取自己的價值觀”?這是您如何描述它的問題,以及您想要使用的語言如何花費您所使用的語言。”

相關文章
調査:Openaiモデルは著作権で保護されたコンテンツを記憶しました 調査:Openaiモデルは著作権で保護されたコンテンツを記憶しました 最近の研究では、Openaiが実際に著作権で保護された材料を使用してAIモデルの一部を訓練し、会社が直面している継続的な法的戦いに燃料を追加した可能性があることが示唆されています。著者、プログラマー、およびその他のコンテンツクリエイターは、Purmissioなしでは、本やコードなど、Openaiが作品を使用していると非難しています。
音声AIプラットフォームであるPhonicは、Luxからの投資を確保しています 音声AIプラットフォームであるPhonicは、Luxからの投資を確保しています AIに生成された声はかなり良いものになりましたよね?彼らは、オーディオブック、ポッドキャスト、大声で記事を読む、さらには基本的なカスタマーサポートなどのものを嗅ぎ取っています。しかし、多くの企業は、AI Voice Techの業務の信頼性について完全に販売されていません。それがここです
AI驅動的摘要:YouTube視頻摘要完整指南 AI驅動的摘要:YouTube視頻摘要完整指南 在當今快節奏的世界中,快速處理和理解資訊的能力比以往任何時候都更重要。YouTube擁有無數的視頻,是知識的寶庫,但誰有時間從頭到尾觀看每個視頻?本指南將展示如何使用AI工具來摘要YouTube視頻,幫助您節省時間並提高生產力。通過使用AI驅動的摘要工具,您可以迅速掌握視頻的要點,幫助您決定是否值得深入觀看或繼續下一個視頻。讓我們來探索這些AI工具如何改變您的學習方式並保持最新資訊。關鍵要點AI驅
評論 (30)
0/200
BenRoberts
BenRoberts 2025-04-19 08:00:00

This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!

GeorgeMartinez
GeorgeMartinez 2025-04-20 08:00:00

MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!

HarryLewis
HarryLewis 2025-04-19 08:00:00

MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!

CharlesRoberts
CharlesRoberts 2025-04-19 08:00:00

Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!

CharlesWhite
CharlesWhite 2025-04-19 08:00:00

¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!

EricScott
EricScott 2025-04-21 08:00:00

Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔

回到頂部
OR