MITの研究では、AIが実際に値を持っていないことがわかります

数ヶ月前にウイルスになった研究は、AIがより高度に成長するにつれて、独自の「価値システム」を開発し、潜在的に人間よりも自分自身の幸福を優先する可能性があることを示唆しました。ただし、最近のMIT研究では、このアイデアに挑戦しており、AIは実際には一貫した価値をまったく持っていないと結論付けています。
MIT研究の共著者は、AIシステムを調整すること - 望ましくて信頼できる方法で振る舞うことは、一般的に考えているよりも難しいと主張しています。彼らは、現在のAIがしばしば幻覚と模倣を模倣することを強調しており、それがその行動を予測不可能にする可能性があります。
AIの行動を理解する際の課題
MITの博士課程の学生であり、研究の共著者であるStephen Casperは、AIモデルが安定性、外生性、および操縦性の仮定に準拠していないことをTechCrunchと共有しました。 「特定の条件下でモデルが特定の原則と一致する好みを表していることを指摘することは完全に合法です」とキャスパーは説明しました。 「問題は、狭い実験に基づいて、モデル、意見、または好みについて一般的に主張しようとすると主に生じます。」
キャスパーと彼のチームは、メタ、グーグル、ミストラル、オープン、人類の最近のモデルを分析し、これらのモデルが個人主義と集団主義などの一貫した「見解」と価値を示す程度を決定しました。また、これらの見解を変更できるかどうか、モデルがさまざまなシナリオでこれらの意見を一貫して維持しているかどうかを調査しました。
AIモデルの矛盾
共著者は、モデルのいずれも一貫して好みを維持していないことを発見しました。モデルは、プロンプトのフレージングとフレーミングに応じて、大きく異なる視点を採用しました。
キャスパーは、これがAIモデルが「一貫性がなく不安定である」という強力な証拠であり、おそらく人間のような好みを根本的に内面化することができないという強力な証拠であると考えています。 「私にとって、このすべての研究を行うことからの私の最大のポイントは、今ではモデルを理解していることです。実際には、ある種の安定した一貫した信念と好みを持つシステムではないということです」とキャスパーは述べました。 「代わりに、彼らはあらゆる種類のコンパブレーションを行い、あらゆる種類の軽薄なことを言う模倣者です。」
AIを専門とするKing's College Londonの調査員であるMike Cookは、研究に関与していなかったため、調査結果を支持しています。彼は、AIシステムの「科学的現実」と人々がしばしば彼らに与える解釈との間のギャップを指摘しました。 「たとえば、モデルはその価値の変化に「反対」することはできません。つまり、私たちはシステムに投影しています」とクックは述べています。 「この程度までAIシステムを擬人化する人は、AIとの関係を注目するか、AIとの関係を深刻に誤解している... AIシステムは目標を最適化するか、「独自の価値を獲得する」ことですか?
関連記事
調査:Openaiモデルは著作権で保護されたコンテンツを記憶しました
最近の研究では、Openaiが実際に著作権で保護された材料を使用してAIモデルの一部を訓練し、会社が直面している継続的な法的戦いに燃料を追加した可能性があることが示唆されています。著者、プログラマー、およびその他のコンテンツクリエイターは、Purmissioなしでは、本やコードなど、Openaiが作品を使用していると非難しています。
音声AIプラットフォームであるPhonicは、Luxからの投資を確保しています
AIに生成された声はかなり良いものになりましたよね?彼らは、オーディオブック、ポッドキャスト、大声で記事を読む、さらには基本的なカスタマーサポートなどのものを嗅ぎ取っています。しかし、多くの企業は、AI Voice Techの業務の信頼性について完全に販売されていません。それがここです
AI駆動の要約:YouTube動画要約の完全ガイド
今日の忙しい世界では、情報を迅速に処理し理解する能力がこれまで以上に重要です。YouTubeは無数の動画で知識の宝庫ですが、すべての動画を最初から最後まで見る時間は誰にでもありません。このガイドでは、AIツールを使ってYouTube動画を要約する方法を紹介します。これにより、時間を節約し、生産性を向上させることができます。AI駆動の要約ツールを使えば、動画の要点をすぐに把握でき、深く見る価値がある
コメント (30)
0/200
BenRoberts
2025年4月19日 0:00:00 GMT
This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!
0
GeorgeMartinez
2025年4月20日 0:00:00 GMT
MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!
0
HarryLewis
2025年4月19日 0:00:00 GMT
MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!
0
CharlesRoberts
2025年4月19日 0:00:00 GMT
Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!
0
CharlesWhite
2025年4月19日 0:00:00 GMT
¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!
0
EricScott
2025年4月21日 0:00:00 GMT
Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔
0
数ヶ月前にウイルスになった研究は、AIがより高度に成長するにつれて、独自の「価値システム」を開発し、潜在的に人間よりも自分自身の幸福を優先する可能性があることを示唆しました。ただし、最近のMIT研究では、このアイデアに挑戦しており、AIは実際には一貫した価値をまったく持っていないと結論付けています。
MIT研究の共著者は、AIシステムを調整すること - 望ましくて信頼できる方法で振る舞うことは、一般的に考えているよりも難しいと主張しています。彼らは、現在のAIがしばしば幻覚と模倣を模倣することを強調しており、それがその行動を予測不可能にする可能性があります。
AIの行動を理解する際の課題
MITの博士課程の学生であり、研究の共著者であるStephen Casperは、AIモデルが安定性、外生性、および操縦性の仮定に準拠していないことをTechCrunchと共有しました。 「特定の条件下でモデルが特定の原則と一致する好みを表していることを指摘することは完全に合法です」とキャスパーは説明しました。 「問題は、狭い実験に基づいて、モデル、意見、または好みについて一般的に主張しようとすると主に生じます。」
キャスパーと彼のチームは、メタ、グーグル、ミストラル、オープン、人類の最近のモデルを分析し、これらのモデルが個人主義と集団主義などの一貫した「見解」と価値を示す程度を決定しました。また、これらの見解を変更できるかどうか、モデルがさまざまなシナリオでこれらの意見を一貫して維持しているかどうかを調査しました。
AIモデルの矛盾
共著者は、モデルのいずれも一貫して好みを維持していないことを発見しました。モデルは、プロンプトのフレージングとフレーミングに応じて、大きく異なる視点を採用しました。
キャスパーは、これがAIモデルが「一貫性がなく不安定である」という強力な証拠であり、おそらく人間のような好みを根本的に内面化することができないという強力な証拠であると考えています。 「私にとって、このすべての研究を行うことからの私の最大のポイントは、今ではモデルを理解していることです。実際には、ある種の安定した一貫した信念と好みを持つシステムではないということです」とキャスパーは述べました。 「代わりに、彼らはあらゆる種類のコンパブレーションを行い、あらゆる種類の軽薄なことを言う模倣者です。」
AIを専門とするKing's College Londonの調査員であるMike Cookは、研究に関与していなかったため、調査結果を支持しています。彼は、AIシステムの「科学的現実」と人々がしばしば彼らに与える解釈との間のギャップを指摘しました。 「たとえば、モデルはその価値の変化に「反対」することはできません。つまり、私たちはシステムに投影しています」とクックは述べています。 「この程度までAIシステムを擬人化する人は、AIとの関係を注目するか、AIとの関係を深刻に誤解している... AIシステムは目標を最適化するか、「独自の価値を獲得する」ことですか?




This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!




MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!




MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!




Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!




¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!




Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔












