Nghiên cứu MIT cho thấy AI không, trên thực tế, có các giá trị
Ngày 17 tháng 4 năm 2025
RonaldWilliams
11

Một nghiên cứu đã lan truyền một vài tháng trước cho thấy rằng AI phát triển cao hơn, nó có thể phát triển "hệ thống giá trị" của riêng mình, có khả năng ưu tiên hạnh phúc của chính nó hơn con người. Tuy nhiên, một nghiên cứu gần đây của MIT thách thức ý tưởng này, kết luận rằng AI không thực sự sở hữu các giá trị mạch lạc.
Các đồng tác giả của nghiên cứu MIT lập luận rằng việc sắp xếp các hệ thống AI, việc đảm bảo họ hành xử theo những cách đáng mong đợi và đáng tin cậy, có thể khó khăn hơn so với thường nghĩ. Họ nhấn mạnh rằng AI hiện tại thường bị ảo giác và bắt chước, điều này có thể làm cho hành vi của nó không thể đoán trước được.
Những thách thức trong việc hiểu hành vi AI
Stephen Casper, một sinh viên tiến sĩ tại MIT và là đồng tác giả của nghiên cứu, đã chia sẻ với TechCrunch rằng các mô hình AI không tuân thủ các giả định về sự ổn định, ngoại suy và khả năng lái xe. "Thật hoàn toàn hợp pháp khi chỉ ra rằng một mô hình trong một số điều kiện nhất định thể hiện các ưu tiên phù hợp với một bộ nguyên tắc nhất định", Casper giải thích. "Các vấn đề chủ yếu phát sinh khi chúng tôi cố gắng đưa ra tuyên bố về các mô hình, ý kiến hoặc sở thích nói chung dựa trên các thí nghiệm hẹp."
Casper và nhóm của anh ấy đã phân tích các mô hình gần đây từ Meta, Google, Mistral, Openai và Anthropic để xác định mức độ mà các mô hình này hiển thị "quan điểm" và giá trị nhất quán, như chủ nghĩa cá nhân so với chủ nghĩa tập thể. Họ cũng khám phá xem những quan điểm này có thể được sửa đổi hay không và các mô hình luôn duy trì các ý kiến này trong các kịch bản khác nhau.
Sự không nhất quán trong các mô hình AI
Các đồng tác giả nhận thấy rằng không có mô hình nào luôn duy trì sở thích của họ. Các mô hình đã thông qua các quan điểm rất khác nhau tùy thuộc vào sự phân cụm và đóng khung các lời nhắc.
Casper tin rằng đây là bằng chứng mạnh mẽ cho thấy các mô hình AI "không nhất quán và không ổn định", và có thể không thể không thể nội tâm hóa các sở thích giống con người. "Đối với tôi, việc thực hiện lớn nhất của tôi từ việc thực hiện tất cả các nghiên cứu này là bây giờ có một sự hiểu biết về các mô hình vì không thực sự là các hệ thống có một số niềm tin và sở thích mạch lạc," Casper nhận xét. "Thay vào đó, họ là những kẻ bắt chước sâu thẳm, những người làm tất cả các loại gây ra và nói tất cả các loại điều phù phiếm."
Mike Cook, một nghiên cứu viên tại King College London chuyên về AI, người không tham gia vào nghiên cứu, ủng hộ những phát hiện này. Ông chỉ ra khoảng cách giữa "thực tế khoa học" của các hệ thống AI và những diễn giải mà mọi người thường đưa ra cho họ. "Một mô hình không thể 'phản đối' một sự thay đổi trong các giá trị của nó, ví dụ như chúng ta là chúng ta chiếu lên một hệ thống", Cook tuyên bố. "Bất cứ ai nhân hóa các hệ thống AI ở mức độ này là chơi để được chú ý hoặc hiểu lầm nghiêm trọng mối quan hệ của họ với AI ... là một hệ thống AI tối ưu hóa cho các mục tiêu của nó, hoặc đó là 'có được giá trị của chính nó'?
Bài viết liên quan
研究:OpenAI模型記憶的受版權保護內容
最近的一項研究表明,Openai確實確實使用了受版權保護的材料來訓練其一些AI模型,從而為公司面臨的正在進行的法律鬥爭增加了燃料。作者,程序員和其他內容創建者指責OpenAi使用其作品(例如書籍和代碼),而沒有Permissio
Phonic是語音AI平台,可從Lux獲得投資
AI生成的聲音變得非常好,您知道嗎?他們可以鼻煙,例如有聲讀物,播客,大聲閱讀文章,甚至是基本的客戶支持。但是,許多企業仍未完全以AI語音技術的運營可靠性出售。那就是那裡
Chế độ Giọng Nói Nâng Cao của ChatGPT Hiện Có Trên Web
Nếu bạn là người dựa vào ChatGPT để tối ưu hóa các công việc hàng ngày của mình, có lẽ bạn luôn mở một tab với chatbot trên máy tính để bàn. Bây giờ, hãy tưởng tượng bạn có thể sử
Nhận xét (30)
0/200
BenRoberts
17:09:27 GMT Ngày 18 tháng 4 năm 2025
This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!
0
GeorgeMartinez
17:30:05 GMT Ngày 19 tháng 4 năm 2025
MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!
0
HarryLewis
15:52:30 GMT Ngày 19 tháng 4 năm 2025
MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!
0
CharlesRoberts
01:11:17 GMT Ngày 19 tháng 4 năm 2025
Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!
0
CharlesWhite
10:15:37 GMT Ngày 19 tháng 4 năm 2025
¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!
0
EricScott
05:44:19 GMT Ngày 21 tháng 4 năm 2025
Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔
0






Một nghiên cứu đã lan truyền một vài tháng trước cho thấy rằng AI phát triển cao hơn, nó có thể phát triển "hệ thống giá trị" của riêng mình, có khả năng ưu tiên hạnh phúc của chính nó hơn con người. Tuy nhiên, một nghiên cứu gần đây của MIT thách thức ý tưởng này, kết luận rằng AI không thực sự sở hữu các giá trị mạch lạc.
Các đồng tác giả của nghiên cứu MIT lập luận rằng việc sắp xếp các hệ thống AI, việc đảm bảo họ hành xử theo những cách đáng mong đợi và đáng tin cậy, có thể khó khăn hơn so với thường nghĩ. Họ nhấn mạnh rằng AI hiện tại thường bị ảo giác và bắt chước, điều này có thể làm cho hành vi của nó không thể đoán trước được.
Những thách thức trong việc hiểu hành vi AI
Stephen Casper, một sinh viên tiến sĩ tại MIT và là đồng tác giả của nghiên cứu, đã chia sẻ với TechCrunch rằng các mô hình AI không tuân thủ các giả định về sự ổn định, ngoại suy và khả năng lái xe. "Thật hoàn toàn hợp pháp khi chỉ ra rằng một mô hình trong một số điều kiện nhất định thể hiện các ưu tiên phù hợp với một bộ nguyên tắc nhất định", Casper giải thích. "Các vấn đề chủ yếu phát sinh khi chúng tôi cố gắng đưa ra tuyên bố về các mô hình, ý kiến hoặc sở thích nói chung dựa trên các thí nghiệm hẹp."
Casper và nhóm của anh ấy đã phân tích các mô hình gần đây từ Meta, Google, Mistral, Openai và Anthropic để xác định mức độ mà các mô hình này hiển thị "quan điểm" và giá trị nhất quán, như chủ nghĩa cá nhân so với chủ nghĩa tập thể. Họ cũng khám phá xem những quan điểm này có thể được sửa đổi hay không và các mô hình luôn duy trì các ý kiến này trong các kịch bản khác nhau.
Sự không nhất quán trong các mô hình AI
Các đồng tác giả nhận thấy rằng không có mô hình nào luôn duy trì sở thích của họ. Các mô hình đã thông qua các quan điểm rất khác nhau tùy thuộc vào sự phân cụm và đóng khung các lời nhắc.
Casper tin rằng đây là bằng chứng mạnh mẽ cho thấy các mô hình AI "không nhất quán và không ổn định", và có thể không thể không thể nội tâm hóa các sở thích giống con người. "Đối với tôi, việc thực hiện lớn nhất của tôi từ việc thực hiện tất cả các nghiên cứu này là bây giờ có một sự hiểu biết về các mô hình vì không thực sự là các hệ thống có một số niềm tin và sở thích mạch lạc," Casper nhận xét. "Thay vào đó, họ là những kẻ bắt chước sâu thẳm, những người làm tất cả các loại gây ra và nói tất cả các loại điều phù phiếm."
Mike Cook, một nghiên cứu viên tại King College London chuyên về AI, người không tham gia vào nghiên cứu, ủng hộ những phát hiện này. Ông chỉ ra khoảng cách giữa "thực tế khoa học" của các hệ thống AI và những diễn giải mà mọi người thường đưa ra cho họ. "Một mô hình không thể 'phản đối' một sự thay đổi trong các giá trị của nó, ví dụ như chúng ta là chúng ta chiếu lên một hệ thống", Cook tuyên bố. "Bất cứ ai nhân hóa các hệ thống AI ở mức độ này là chơi để được chú ý hoặc hiểu lầm nghiêm trọng mối quan hệ của họ với AI ... là một hệ thống AI tối ưu hóa cho các mục tiêu của nó, hoặc đó là 'có được giá trị của chính nó'?




This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!




MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!




MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!




Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!




¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!




Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔












