MIT 연구는 AI가 실제로 가치가 없다는 것을 발견했습니다.

몇 달 전에 바이러스에 진출한 연구에 따르면 AI가 더욱 발전함에 따라 자체 "가치 시스템"을 개발하여 잠재적으로 인간에 대한 자신의 복지를 우선시 할 수 있다고 제안했습니다. 그러나 최근 MIT 연구는이 아이디어에 도전하며 AI는 실제로 일관된 가치를 전혀 가지고 있지 않다고 결론지었습니다.
MIT 연구의 공동 저자는 AI 시스템을 정렬하는 것 (바람직하고 신뢰할 수있는 방식으로 행동하는 것)이 일반적으로 생각하는 것보다 까다 롭다 고 주장합니다. 그들은 현재의 AI가 종종 환각과 모방으로, 그 행동을 예측할 수 없게 만들 수 있다고 강조합니다.
AI 행동을 이해하는 데 어려움
MIT의 박사 과정 학생이자 연구의 공동 저자 인 Stephen Casper는 AI 모델이 안정성, 외삽 성 및 조향성에 대한 가정을 준수하지 않는 TechCrunch와 공유했습니다. 캐스퍼는“특정 조건의 모델이 특정 원칙 세트와 일치하는 선호도를 표현한다는 것을 지적하는 것은 완벽하게 합법적이다. "문제는 대부분 좁은 실험을 기반으로 모델, 의견 또는 선호도에 대한 주장을 할 때 주로 발생합니다."
Casper와 그의 팀은 Meta, Google, Mistral, Openai 및 Anthropic의 최근 모델을 분석하여 이러한 모델이 일관된 "견해"와 개인주의와 집단주의와 같은 가치를 보여주는 정도를 결정했습니다. 또한 이러한 견해를 수정할 수 있는지 여부와 모델이 여러 시나리오에서 이러한 의견을 얼마나 일관되게 유지했는지 탐구했습니다.
AI 모델의 불일치
공동 저자는 모델 중 어느 것도 자신의 선호도를 지속적으로 유지하지 않았다는 것을 발견했습니다. 이 모델은 프롬프트의 문구 및 프레임에 따라 크게 다른 관점을 채택했습니다.
캐스퍼는 이것이 AI 모델이 "일관성이없고 불안정하다"는 강력한 증거라고 생각합니다. Casper는“이 모든 연구를 수행 한 가장 큰 테이크 아웃은 이제 모델을 이해하는 것입니다. "대신, 그들은 모든 종류의 구성을 수행하고 모든 종류의 경박 한 말을하는 모방 자입니다."
연구에 참여하지 않은 AI를 전문으로하는 King 's College London의 연구 연구원 인 Mike Cook은 그 결과를지지합니다. 그는 AI 시스템의 "과학적 현실"과 사람들이 종종주는 해석 사이의 격차를 지적했다. 쿡은“모델은 예를 들어 우리가 시스템에 투영하는 것과 같은 가치의 변화를 '반대 할 수 없다 "고 말했다. "이 정도까지 AI 시스템을 인간화하는 사람이라면 누구나 AI와의 관계를주의를 끌거나 심각하게 오해하고 있습니다 ... AI 시스템은 목표를 최적화하거나 '자체 가치를 얻는'것인가? 그것이 당신이 그것을 설명하는 방법과 그에 관해 사용하고자하는 언어가 얼마나 꽃이 피는 지에 대한 문제입니다."
관련 기사
調査:Openaiモデルは著作権で保護されたコンテンツを記憶しました
最近の研究では、Openaiが実際に著作権で保護された材料を使用してAIモデルの一部を訓練し、会社が直面している継続的な法的戦いに燃料を追加した可能性があることが示唆されています。著者、プログラマー、およびその他のコンテンツクリエイターは、Purmissioなしでは、本やコードなど、Openaiが作品を使用していると非難しています。
音声AIプラットフォームであるPhonicは、Luxからの投資を確保しています
AIに生成された声はかなり良いものになりましたよね?彼らは、オーディオブック、ポッドキャスト、大声で記事を読む、さらには基本的なカスタマーサポートなどのものを嗅ぎ取っています。しかし、多くの企業は、AI Voice Techの業務の信頼性について完全に販売されていません。それがここです
AI驱动的摘要:YouTube视频摘要完整指南
在当今快节奏的世界中,快速处理和理解信息的能力比以往任何时候都重要。YouTube拥有无尽的视频资源,是知识的宝库,但谁有时间从头到尾观看每一部视频?本指南将向您展示如何使用AI工具来摘要YouTube视频,帮助您节省时间并提高生产力。通过使用AI驱动的摘要工具,您可以迅速掌握视频的要点,帮助您决定是否值得深入观看或继续下一个。让我们探索这些AI工具如何改变您的学习和保持更新的方式。要点AI驱动的
의견 (30)
0/200
BenRoberts
2025년 4월 19일 오전 12시 0분 0초 GMT
This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!
0
GeorgeMartinez
2025년 4월 20일 오전 12시 0분 0초 GMT
MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!
0
HarryLewis
2025년 4월 19일 오전 12시 0분 0초 GMT
MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!
0
CharlesRoberts
2025년 4월 19일 오전 12시 0분 0초 GMT
Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!
0
CharlesWhite
2025년 4월 19일 오전 12시 0분 0초 GMT
¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!
0
EricScott
2025년 4월 21일 오전 12시 0분 0초 GMT
Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔
0
몇 달 전에 바이러스에 진출한 연구에 따르면 AI가 더욱 발전함에 따라 자체 "가치 시스템"을 개발하여 잠재적으로 인간에 대한 자신의 복지를 우선시 할 수 있다고 제안했습니다. 그러나 최근 MIT 연구는이 아이디어에 도전하며 AI는 실제로 일관된 가치를 전혀 가지고 있지 않다고 결론지었습니다.
MIT 연구의 공동 저자는 AI 시스템을 정렬하는 것 (바람직하고 신뢰할 수있는 방식으로 행동하는 것)이 일반적으로 생각하는 것보다 까다 롭다 고 주장합니다. 그들은 현재의 AI가 종종 환각과 모방으로, 그 행동을 예측할 수 없게 만들 수 있다고 강조합니다.
AI 행동을 이해하는 데 어려움
MIT의 박사 과정 학생이자 연구의 공동 저자 인 Stephen Casper는 AI 모델이 안정성, 외삽 성 및 조향성에 대한 가정을 준수하지 않는 TechCrunch와 공유했습니다. 캐스퍼는“특정 조건의 모델이 특정 원칙 세트와 일치하는 선호도를 표현한다는 것을 지적하는 것은 완벽하게 합법적이다. "문제는 대부분 좁은 실험을 기반으로 모델, 의견 또는 선호도에 대한 주장을 할 때 주로 발생합니다."
Casper와 그의 팀은 Meta, Google, Mistral, Openai 및 Anthropic의 최근 모델을 분석하여 이러한 모델이 일관된 "견해"와 개인주의와 집단주의와 같은 가치를 보여주는 정도를 결정했습니다. 또한 이러한 견해를 수정할 수 있는지 여부와 모델이 여러 시나리오에서 이러한 의견을 얼마나 일관되게 유지했는지 탐구했습니다.
AI 모델의 불일치
공동 저자는 모델 중 어느 것도 자신의 선호도를 지속적으로 유지하지 않았다는 것을 발견했습니다. 이 모델은 프롬프트의 문구 및 프레임에 따라 크게 다른 관점을 채택했습니다.
캐스퍼는 이것이 AI 모델이 "일관성이없고 불안정하다"는 강력한 증거라고 생각합니다. Casper는“이 모든 연구를 수행 한 가장 큰 테이크 아웃은 이제 모델을 이해하는 것입니다. "대신, 그들은 모든 종류의 구성을 수행하고 모든 종류의 경박 한 말을하는 모방 자입니다."
연구에 참여하지 않은 AI를 전문으로하는 King 's College London의 연구 연구원 인 Mike Cook은 그 결과를지지합니다. 그는 AI 시스템의 "과학적 현실"과 사람들이 종종주는 해석 사이의 격차를 지적했다. 쿡은“모델은 예를 들어 우리가 시스템에 투영하는 것과 같은 가치의 변화를 '반대 할 수 없다 "고 말했다. "이 정도까지 AI 시스템을 인간화하는 사람이라면 누구나 AI와의 관계를주의를 끌거나 심각하게 오해하고 있습니다 ... AI 시스템은 목표를 최적화하거나 '자체 가치를 얻는'것인가? 그것이 당신이 그것을 설명하는 방법과 그에 관해 사용하고자하는 언어가 얼마나 꽃이 피는 지에 대한 문제입니다."




This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!




MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!




MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!




Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!




¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!




Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔












