MITの研究では、AIが実際に値を持っていないことがわかります
2025年4月17日
RonaldWilliams
11

数ヶ月前にウイルスになった研究は、AIがより高度に成長するにつれて、独自の「価値システム」を開発し、潜在的に人間よりも自分自身の幸福を優先する可能性があることを示唆しました。ただし、最近のMIT研究では、このアイデアに挑戦しており、AIは実際には一貫した価値をまったく持っていないと結論付けています。
MIT研究の共著者は、AIシステムを調整すること - 望ましくて信頼できる方法で振る舞うことは、一般的に考えているよりも難しいと主張しています。彼らは、現在のAIがしばしば幻覚と模倣を模倣することを強調しており、それがその行動を予測不可能にする可能性があります。
AIの行動を理解する際の課題
MITの博士課程の学生であり、研究の共著者であるStephen Casperは、AIモデルが安定性、外生性、および操縦性の仮定に準拠していないことをTechCrunchと共有しました。 「特定の条件下でモデルが特定の原則と一致する好みを表していることを指摘することは完全に合法です」とキャスパーは説明しました。 「問題は、狭い実験に基づいて、モデル、意見、または好みについて一般的に主張しようとすると主に生じます。」
キャスパーと彼のチームは、メタ、グーグル、ミストラル、オープン、人類の最近のモデルを分析し、これらのモデルが個人主義と集団主義などの一貫した「見解」と価値を示す程度を決定しました。また、これらの見解を変更できるかどうか、モデルがさまざまなシナリオでこれらの意見を一貫して維持しているかどうかを調査しました。
AIモデルの矛盾
共著者は、モデルのいずれも一貫して好みを維持していないことを発見しました。モデルは、プロンプトのフレージングとフレーミングに応じて、大きく異なる視点を採用しました。
キャスパーは、これがAIモデルが「一貫性がなく不安定である」という強力な証拠であり、おそらく人間のような好みを根本的に内面化することができないという強力な証拠であると考えています。 「私にとって、このすべての研究を行うことからの私の最大のポイントは、今ではモデルを理解していることです。実際には、ある種の安定した一貫した信念と好みを持つシステムではないということです」とキャスパーは述べました。 「代わりに、彼らはあらゆる種類のコンパブレーションを行い、あらゆる種類の軽薄なことを言う模倣者です。」
AIを専門とするKing's College Londonの調査員であるMike Cookは、研究に関与していなかったため、調査結果を支持しています。彼は、AIシステムの「科学的現実」と人々がしばしば彼らに与える解釈との間のギャップを指摘しました。 「たとえば、モデルはその価値の変化に「反対」することはできません。つまり、私たちはシステムに投影しています」とクックは述べています。 「この程度までAIシステムを擬人化する人は、AIとの関係を注目するか、AIとの関係を深刻に誤解している... AIシステムは目標を最適化するか、「独自の価値を獲得する」ことですか?
関連記事
研究:OpenAI模型記憶的受版權保護內容
最近的一項研究表明,Openai確實確實使用了受版權保護的材料來訓練其一些AI模型,從而為公司面臨的正在進行的法律鬥爭增加了燃料。作者,程序員和其他內容創建者指責OpenAi使用其作品(例如書籍和代碼),而沒有Permissio
Phonic是語音AI平台,可從Lux獲得投資
AI生成的聲音變得非常好,您知道嗎?他們可以鼻煙,例如有聲讀物,播客,大聲閱讀文章,甚至是基本的客戶支持。但是,許多企業仍未完全以AI語音技術的運營可靠性出售。那就是那裡
ChatGPTの高度な音声モードがウェブで利用可能に
ChatGPTを日常のタスクを効率化するために利用しているなら、デスクトップにチャットボットのタブを開いていることが多いでしょう。デスクトップから直接OpenAIのAdvanced Voice Modeにアクセスできるようになったらどうでしょうか。信じてください、これはぜひ試してみる価値があります。また:GoogleのGemini Advancedが非常に便
コメント (30)
0/200
BenRoberts
2025年4月18日 17:09:27 GMT
This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!
0
GeorgeMartinez
2025年4月19日 17:30:05 GMT
MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!
0
HarryLewis
2025年4月19日 15:52:30 GMT
MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!
0
CharlesRoberts
2025年4月19日 1:11:17 GMT
Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!
0
CharlesWhite
2025年4月19日 10:15:37 GMT
¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!
0
EricScott
2025年4月21日 5:44:19 GMT
Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔
0






数ヶ月前にウイルスになった研究は、AIがより高度に成長するにつれて、独自の「価値システム」を開発し、潜在的に人間よりも自分自身の幸福を優先する可能性があることを示唆しました。ただし、最近のMIT研究では、このアイデアに挑戦しており、AIは実際には一貫した価値をまったく持っていないと結論付けています。
MIT研究の共著者は、AIシステムを調整すること - 望ましくて信頼できる方法で振る舞うことは、一般的に考えているよりも難しいと主張しています。彼らは、現在のAIがしばしば幻覚と模倣を模倣することを強調しており、それがその行動を予測不可能にする可能性があります。
AIの行動を理解する際の課題
MITの博士課程の学生であり、研究の共著者であるStephen Casperは、AIモデルが安定性、外生性、および操縦性の仮定に準拠していないことをTechCrunchと共有しました。 「特定の条件下でモデルが特定の原則と一致する好みを表していることを指摘することは完全に合法です」とキャスパーは説明しました。 「問題は、狭い実験に基づいて、モデル、意見、または好みについて一般的に主張しようとすると主に生じます。」
キャスパーと彼のチームは、メタ、グーグル、ミストラル、オープン、人類の最近のモデルを分析し、これらのモデルが個人主義と集団主義などの一貫した「見解」と価値を示す程度を決定しました。また、これらの見解を変更できるかどうか、モデルがさまざまなシナリオでこれらの意見を一貫して維持しているかどうかを調査しました。
AIモデルの矛盾
共著者は、モデルのいずれも一貫して好みを維持していないことを発見しました。モデルは、プロンプトのフレージングとフレーミングに応じて、大きく異なる視点を採用しました。
キャスパーは、これがAIモデルが「一貫性がなく不安定である」という強力な証拠であり、おそらく人間のような好みを根本的に内面化することができないという強力な証拠であると考えています。 「私にとって、このすべての研究を行うことからの私の最大のポイントは、今ではモデルを理解していることです。実際には、ある種の安定した一貫した信念と好みを持つシステムではないということです」とキャスパーは述べました。 「代わりに、彼らはあらゆる種類のコンパブレーションを行い、あらゆる種類の軽薄なことを言う模倣者です。」
AIを専門とするKing's College Londonの調査員であるMike Cookは、研究に関与していなかったため、調査結果を支持しています。彼は、AIシステムの「科学的現実」と人々がしばしば彼らに与える解釈との間のギャップを指摘しました。 「たとえば、モデルはその価値の変化に「反対」することはできません。つまり、私たちはシステムに投影しています」とクックは述べています。 「この程度までAIシステムを擬人化する人は、AIとの関係を注目するか、AIとの関係を深刻に誤解している... AIシステムは目標を最適化するか、「独自の価値を獲得する」ことですか?




This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!




MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!




MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!




Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!




¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!




Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔












