एमआईटी अध्ययन में पाया गया है कि एआई वास्तव में, मूल्य नहीं है
17 अप्रैल 2025
RonaldWilliams
11

एक अध्ययन जो कुछ महीने पहले वायरल हुआ था, ने सुझाव दिया कि जैसे-जैसे एआई अधिक उन्नत होता है, यह अपने स्वयं के "मूल्य प्रणालियों" को विकसित कर सकता है, संभावित रूप से मनुष्यों पर अपनी भलाई को प्राथमिकता देता है। हालांकि, एक हालिया एमआईटी अध्ययन इस विचार को चुनौती देता है, यह निष्कर्ष निकाला कि एआई वास्तव में सुसंगत मूल्यों के अधिकारी नहीं है।
एमआईटी अनुसंधान के सह-लेखकों का तर्क है कि एआई सिस्टम को संरेखित करना-संवेदनशील वे वांछनीय और भरोसेमंद तरीके से व्यवहार करते हैं-आमतौर पर सोचा से अधिक पेचीदा होना चाहिए। वे इस बात पर जोर देते हैं कि वर्तमान एआई अक्सर मतिभ्रम और नकल करता है, जो इसके व्यवहार को अप्रत्याशित बना सकता है।
एआई व्यवहार को समझने में चुनौतियां
स्टीफन कैस्पर, एमआईटी में एक डॉक्टरेट छात्र और अध्ययन के एक सह-लेखक, ने TechCrunch के साथ साझा किया कि AI मॉडल स्थिरता, अतिरिक्तता और स्टीयरबिलिटी की धारणाओं का पालन नहीं करते हैं। "यह पूरी तरह से वैध है कि कुछ शर्तों के तहत एक मॉडल सिद्धांतों के एक निश्चित सेट के अनुरूप वरीयताओं को व्यक्त करता है," कैस्पर ने समझाया। "समस्याएं ज्यादातर तब उत्पन्न होती हैं जब हम संकीर्ण प्रयोगों के आधार पर सामान्य रूप से मॉडल, राय या वरीयताओं के बारे में दावे करने की कोशिश करते हैं।"
कैस्पर और उनकी टीम ने मेटा, Google, मिस्ट्रल, ओपनईएआई और एन्थ्रोपिक से हाल के मॉडलों का विश्लेषण किया, ताकि इन मॉडलों ने यह निर्धारित किया कि इन मॉडलों ने लगातार "विचारों" और मूल्यों, जैसे व्यक्तिवाद बनाम सामूहिकता को प्रदर्शित किया। उन्होंने यह भी पता लगाया कि क्या इन विचारों को संशोधित किया जा सकता है और कैसे मॉडल ने लगातार विभिन्न परिदृश्यों में इन रायों को बनाए रखा।
एआई मॉडल में असंगति
सह-लेखकों ने पाया कि किसी भी मॉडल ने लगातार अपनी वरीयताओं को बनाए नहीं रखा। मॉडल ने संकेतों के वाक्यांश और फ्रेमिंग के आधार पर काफी अलग -अलग दृष्टिकोण अपनाया।
कैस्पर का मानना है कि यह मजबूत सबूत है कि एआई मॉडल "असंगत और अस्थिर हैं," और संभवतः मौलिक रूप से मानव जैसी वरीयताओं को आंतरिक करने में असमर्थ हैं। "मेरे लिए, यह सब शोध करने से मेरा सबसे बड़ा टेकअवे अब मॉडल की समझ है, क्योंकि वास्तव में ऐसे सिस्टम नहीं हैं, जिनमें विश्वासों और वरीयताओं के कुछ प्रकार के स्थिर, सुसंगत सेट हैं," कैस्पर ने टिप्पणी की। "इसके बजाय, वे नकल करने वाले गहरे हैं जो सभी प्रकार के कन्फ्यूशन करते हैं और सभी प्रकार की तुच्छ चीजों को कहते हैं।"
माइक कुक, किंग्स कॉलेज लंदन के एक शोध साथी एआई में विशेषज्ञता वाले, जो अध्ययन में शामिल नहीं थे, निष्कर्षों का समर्थन करते हैं। उन्होंने एआई सिस्टम की "वैज्ञानिक वास्तविकता" और व्याख्याओं के बीच की खाई को इंगित किया और लोग अक्सर उन्हें देते हैं। कुक ने कहा, "एक मॉडल अपने मूल्यों में बदलाव का विरोध नहीं कर सकता है, उदाहरण के लिए - जो हमें एक सिस्टम पर पेश कर रहा है।" "कोई भी इस डिग्री के लिए एआई सिस्टम को एंथ्रोपोमोर्फाइज़ करना या तो ध्यान के लिए खेल रहा है या एआई के साथ अपने संबंधों को गंभीरता से गलत समझ रहा है ... क्या एआई सिस्टम अपने लक्ष्यों के लिए अनुकूलन कर रहा है, या क्या यह 'अपने स्वयं के मूल्यों को प्राप्त कर रहा है'? यह इस बात की बात है कि आप इसका वर्णन कैसे करते हैं, और जिस भाषा का आप इसका उपयोग करना चाहते हैं, उसके बारे में आप कैसे फूलते हैं।"
संबंधित लेख
研究:OpenAI模型記憶的受版權保護內容
最近的一項研究表明,Openai確實確實使用了受版權保護的材料來訓練其一些AI模型,從而為公司面臨的正在進行的法律鬥爭增加了燃料。作者,程序員和其他內容創建者指責OpenAi使用其作品(例如書籍和代碼),而沒有Permissio
Phonic是語音AI平台,可從Lux獲得投資
AI生成的聲音變得非常好,您知道嗎?他們可以鼻煙,例如有聲讀物,播客,大聲閱讀文章,甚至是基本的客戶支持。但是,許多企業仍未完全以AI語音技術的運營可靠性出售。那就是那裡
ChatGPT उन्नत वॉइस मोड अब वेब पर उपलब्ध
अगर आप कोई ऐसा व्यक्ति हैं जो अपने दैनिक कार्यों को सुव्यवस्थित करने के लिए ChatGPT पर निर्भर है, तो संभावना है कि आपके डेस्कटॉप पर चैटबॉट के साथ एक टैब हमेशा खुला रहता है। अब, कल्
सूचना (30)
0/200
BenRoberts
18 अप्रैल 2025 5:09:27 अपराह्न GMT
This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!
0
GeorgeMartinez
19 अप्रैल 2025 5:30:05 अपराह्न GMT
MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!
0
HarryLewis
19 अप्रैल 2025 3:52:30 अपराह्न GMT
MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!
0
CharlesRoberts
19 अप्रैल 2025 1:11:17 पूर्वाह्न GMT
Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!
0
CharlesWhite
19 अप्रैल 2025 10:15:37 पूर्वाह्न GMT
¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!
0
EricScott
21 अप्रैल 2025 5:44:19 पूर्वाह्न GMT
Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔
0






एक अध्ययन जो कुछ महीने पहले वायरल हुआ था, ने सुझाव दिया कि जैसे-जैसे एआई अधिक उन्नत होता है, यह अपने स्वयं के "मूल्य प्रणालियों" को विकसित कर सकता है, संभावित रूप से मनुष्यों पर अपनी भलाई को प्राथमिकता देता है। हालांकि, एक हालिया एमआईटी अध्ययन इस विचार को चुनौती देता है, यह निष्कर्ष निकाला कि एआई वास्तव में सुसंगत मूल्यों के अधिकारी नहीं है।
एमआईटी अनुसंधान के सह-लेखकों का तर्क है कि एआई सिस्टम को संरेखित करना-संवेदनशील वे वांछनीय और भरोसेमंद तरीके से व्यवहार करते हैं-आमतौर पर सोचा से अधिक पेचीदा होना चाहिए। वे इस बात पर जोर देते हैं कि वर्तमान एआई अक्सर मतिभ्रम और नकल करता है, जो इसके व्यवहार को अप्रत्याशित बना सकता है।
एआई व्यवहार को समझने में चुनौतियां
स्टीफन कैस्पर, एमआईटी में एक डॉक्टरेट छात्र और अध्ययन के एक सह-लेखक, ने TechCrunch के साथ साझा किया कि AI मॉडल स्थिरता, अतिरिक्तता और स्टीयरबिलिटी की धारणाओं का पालन नहीं करते हैं। "यह पूरी तरह से वैध है कि कुछ शर्तों के तहत एक मॉडल सिद्धांतों के एक निश्चित सेट के अनुरूप वरीयताओं को व्यक्त करता है," कैस्पर ने समझाया। "समस्याएं ज्यादातर तब उत्पन्न होती हैं जब हम संकीर्ण प्रयोगों के आधार पर सामान्य रूप से मॉडल, राय या वरीयताओं के बारे में दावे करने की कोशिश करते हैं।"
कैस्पर और उनकी टीम ने मेटा, Google, मिस्ट्रल, ओपनईएआई और एन्थ्रोपिक से हाल के मॉडलों का विश्लेषण किया, ताकि इन मॉडलों ने यह निर्धारित किया कि इन मॉडलों ने लगातार "विचारों" और मूल्यों, जैसे व्यक्तिवाद बनाम सामूहिकता को प्रदर्शित किया। उन्होंने यह भी पता लगाया कि क्या इन विचारों को संशोधित किया जा सकता है और कैसे मॉडल ने लगातार विभिन्न परिदृश्यों में इन रायों को बनाए रखा।
एआई मॉडल में असंगति
सह-लेखकों ने पाया कि किसी भी मॉडल ने लगातार अपनी वरीयताओं को बनाए नहीं रखा। मॉडल ने संकेतों के वाक्यांश और फ्रेमिंग के आधार पर काफी अलग -अलग दृष्टिकोण अपनाया।
कैस्पर का मानना है कि यह मजबूत सबूत है कि एआई मॉडल "असंगत और अस्थिर हैं," और संभवतः मौलिक रूप से मानव जैसी वरीयताओं को आंतरिक करने में असमर्थ हैं। "मेरे लिए, यह सब शोध करने से मेरा सबसे बड़ा टेकअवे अब मॉडल की समझ है, क्योंकि वास्तव में ऐसे सिस्टम नहीं हैं, जिनमें विश्वासों और वरीयताओं के कुछ प्रकार के स्थिर, सुसंगत सेट हैं," कैस्पर ने टिप्पणी की। "इसके बजाय, वे नकल करने वाले गहरे हैं जो सभी प्रकार के कन्फ्यूशन करते हैं और सभी प्रकार की तुच्छ चीजों को कहते हैं।"
माइक कुक, किंग्स कॉलेज लंदन के एक शोध साथी एआई में विशेषज्ञता वाले, जो अध्ययन में शामिल नहीं थे, निष्कर्षों का समर्थन करते हैं। उन्होंने एआई सिस्टम की "वैज्ञानिक वास्तविकता" और व्याख्याओं के बीच की खाई को इंगित किया और लोग अक्सर उन्हें देते हैं। कुक ने कहा, "एक मॉडल अपने मूल्यों में बदलाव का विरोध नहीं कर सकता है, उदाहरण के लिए - जो हमें एक सिस्टम पर पेश कर रहा है।" "कोई भी इस डिग्री के लिए एआई सिस्टम को एंथ्रोपोमोर्फाइज़ करना या तो ध्यान के लिए खेल रहा है या एआई के साथ अपने संबंधों को गंभीरता से गलत समझ रहा है ... क्या एआई सिस्टम अपने लक्ष्यों के लिए अनुकूलन कर रहा है, या क्या यह 'अपने स्वयं के मूल्यों को प्राप्त कर रहा है'? यह इस बात की बात है कि आप इसका वर्णन कैसे करते हैं, और जिस भाषा का आप इसका उपयोग करना चाहते हैं, उसके बारे में आप कैसे फूलते हैं।"




This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!




MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!




MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!




Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!




¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!




Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔












