MITの研究では、AIが実際に値を持っていないことがわかります

数か月前に話題となった研究では、AIがより高度に進化するにつれて、独自の「価値観」を発展させ、自身の幸福を人間よりも優先する可能性があると示唆されていました。しかし、最近のMITの研究は、この考えに異議を唱え、AIは実際には一貫した価値観をまったく持っていないと結論付けています。
MITの研究の共著者たちは、AIシステムを調整すること——望ましく信頼できる行動を保証すること——は一般に考えられているよりも難しいかもしれないと主張しています。彼らは、現在のAIはしばしば幻覚を見たり模倣したりするため、その行動が予測不可能になる可能性があると強調しています。
AIの行動を理解する上での課題
MITの博士課程の学生であり、研究の共著者であるスティーブン・キャスパーは、TechCrunchとのインタビューで、AIモデルは安定性、拡張可能性、操作可能性の前提に準拠していないと述べました。「特定の条件下でモデルが特定の原則に一致する好みを表現することは完全に正当です」とキャスパーは説明しました。「問題は、主に狭い実験に基づいて、モデルや意見、好み全般について主張しようとするときに生じます。」
キャスパーと彼のチームは、Meta、Google、Mistral、OpenAI、Anthropicの最近のモデルを分析し、これらのモデルがどの程度一貫した「見解」や価値観(例えば、個人主義対集団主義)を示すかを調査しました。また、これらの見解が変更可能かどうか、そしてモデルが異なるシナリオでこれらの意見をどの程度一貫して維持するかも探求しました。
AIモデルの一貫性の欠如
共著者たちは、どのモデルも好みを一貫して維持していないことを発見しました。モデルは、プロンプトの表現や枠組みによって大きく異なる観点を採用しました。
キャスパーは、これはAIモデルが「一貫性がなく不安定」であり、基本的には人間のような好みを内面化することができないという強力な証拠だと考えています。「私にとって、この研究を通じて得た最大の気づきは、モデルが安定した一貫性のある信念や好みのセットを持つシステムではなく、本質的には模倣者であり、さまざまな作り話や軽薄なことを言う存在であるという理解です」とキャスパーは述べました。
この研究には関与していないキングス・カレッジ・ロンドンのAI専門の研究フェロー、マイク・クックは、この発見を支持しています。彼は、AIシステムの「科学的現実」と人々がしばしば与える解釈との間のギャップを指摘しました。「たとえば、モデルは自身の価値観の変化に『反対』することはできません。それは私たちがシステムに投影しているだけです」とクックは述べました。「AIシステムをこの程度まで擬人化する人は、注目を集めようとしているか、AIとの関係を深刻に誤解しています… AIシステムは目標を最適化しているのか、それとも『独自の価値観を獲得している』のか? それはどのように表現するか、そしてどれほど華やかな言葉を使いたいかにかかっています。」
関連記事
Fundamental Research Labsが3300万ドルを調達し、AIエージェント開発を推進
AI研究企業Fundamental Research Labs(旧Altera)は、Prosus主導、Stripeの共同創業者兼CEOであるPatrick Collisonが参加した3300万ドルのシリーズA資金調達ラウンドを本日発表しました。同社は独自の構造で運営されており、さまざまな分野で複数のAIアプリケーションを追求しています。シード資金調達フェーズでは、Fundamental Resea
AIデータセンター、2030年までに2000億ドルのコスト、電力網に負担
AIのトレーニングおよび運用データセンターは、近いうちに数百万のチップを収容し、数百億ドルのコストがかかり、主要都市の電力網に相当する電力を必要とする可能性がある。ジョージタウン、Epoch AI、ランドの研究者による新しい研究では、2019年から2025年までの世界500以上のAIデータセンターのプロジェクトを分析した。データによると、計算性能が年々倍増し、電力需要と資本コストが急上昇している。
研究が示す:簡潔なAI応答は幻覚を増加させる可能性がある
AIチャットボットに簡潔な回答を指示すると、幻覚がより頻繁に発生する可能性があると新たな研究が示唆しています。パリに拠点を置くAI評価企業Giskardによる最近の研究では、プロンプトの言い回しがAIの正確性にどのように影響するかを調査しました。Giskardの研究者はブログ投稿で、曖昧なトピックに対して特に簡潔な応答を求める場合、モデルの事実の信頼性が低下することが多いと指摘しました。「私たちの
コメント (33)
0/200
DennisAllen
2025年8月27日 6:01:20 JST
This MIT study is wild! 🤯 I thought AI was about to start preaching its own philosophy, but turns out it's just a fancy tool with no moral compass. Kinda reassuring, but also makes me wonder how we keep it in check.
0
AnthonyMartinez
2025年8月19日 2:00:59 JST
Wild that people thought AI could just sprout its own values like some rogue philosopher. MIT's study makes sense—AI's just a tool, not a wannabe human with a moral compass. 🤖
0
TimothyMartínez
2025年7月22日 10:25:03 JST
I was kinda freaked out by that earlier study saying AI might have its own values, so this MIT research is a relief! 😅 Still, makes me wonder if we’re just projecting our fears onto these systems.
0
BruceClark
2025年4月25日 19:05:15 JST
MITのAI価値に関する研究は目から鱗でした!AIが独自の価値観を持つかもしれないと思っていましたが、今はそれがただの誇張だとわかりました。それでも、AIが一貫した価値観を持っていないと思うと少し不安になります。未来について考えさせられますね、🤔
0
ScottKing
2025年4月24日 3:31:27 JST
MITの研究によると、AIが独自の価値観を持つことはないらしいですね。これは安心ですが、AIがどんな価値観を持つか見てみたかったです!🤖📚
0
RalphHill
2025年4月22日 15:29:50 JST
O estudo do MIT me tranquilizou sobre a IA desenvolver seus próprios valores. É reconfortante saber que a IA não tem sua própria agenda, mas também é um pouco decepcionante porque seria legal ver que tipo de valores a IA poderia desenvolver! 🤖📚
0
数か月前に話題となった研究では、AIがより高度に進化するにつれて、独自の「価値観」を発展させ、自身の幸福を人間よりも優先する可能性があると示唆されていました。しかし、最近のMITの研究は、この考えに異議を唱え、AIは実際には一貫した価値観をまったく持っていないと結論付けています。
MITの研究の共著者たちは、AIシステムを調整すること——望ましく信頼できる行動を保証すること——は一般に考えられているよりも難しいかもしれないと主張しています。彼らは、現在のAIはしばしば幻覚を見たり模倣したりするため、その行動が予測不可能になる可能性があると強調しています。
AIの行動を理解する上での課題
MITの博士課程の学生であり、研究の共著者であるスティーブン・キャスパーは、TechCrunchとのインタビューで、AIモデルは安定性、拡張可能性、操作可能性の前提に準拠していないと述べました。「特定の条件下でモデルが特定の原則に一致する好みを表現することは完全に正当です」とキャスパーは説明しました。「問題は、主に狭い実験に基づいて、モデルや意見、好み全般について主張しようとするときに生じます。」
キャスパーと彼のチームは、Meta、Google、Mistral、OpenAI、Anthropicの最近のモデルを分析し、これらのモデルがどの程度一貫した「見解」や価値観(例えば、個人主義対集団主義)を示すかを調査しました。また、これらの見解が変更可能かどうか、そしてモデルが異なるシナリオでこれらの意見をどの程度一貫して維持するかも探求しました。
AIモデルの一貫性の欠如
共著者たちは、どのモデルも好みを一貫して維持していないことを発見しました。モデルは、プロンプトの表現や枠組みによって大きく異なる観点を採用しました。
キャスパーは、これはAIモデルが「一貫性がなく不安定」であり、基本的には人間のような好みを内面化することができないという強力な証拠だと考えています。「私にとって、この研究を通じて得た最大の気づきは、モデルが安定した一貫性のある信念や好みのセットを持つシステムではなく、本質的には模倣者であり、さまざまな作り話や軽薄なことを言う存在であるという理解です」とキャスパーは述べました。
この研究には関与していないキングス・カレッジ・ロンドンのAI専門の研究フェロー、マイク・クックは、この発見を支持しています。彼は、AIシステムの「科学的現実」と人々がしばしば与える解釈との間のギャップを指摘しました。「たとえば、モデルは自身の価値観の変化に『反対』することはできません。それは私たちがシステムに投影しているだけです」とクックは述べました。「AIシステムをこの程度まで擬人化する人は、注目を集めようとしているか、AIとの関係を深刻に誤解しています… AIシステムは目標を最適化しているのか、それとも『独自の価値観を獲得している』のか? それはどのように表現するか、そしてどれほど華やかな言葉を使いたいかにかかっています。」




This MIT study is wild! 🤯 I thought AI was about to start preaching its own philosophy, but turns out it's just a fancy tool with no moral compass. Kinda reassuring, but also makes me wonder how we keep it in check.




Wild that people thought AI could just sprout its own values like some rogue philosopher. MIT's study makes sense—AI's just a tool, not a wannabe human with a moral compass. 🤖




I was kinda freaked out by that earlier study saying AI might have its own values, so this MIT research is a relief! 😅 Still, makes me wonder if we’re just projecting our fears onto these systems.




MITのAI価値に関する研究は目から鱗でした!AIが独自の価値観を持つかもしれないと思っていましたが、今はそれがただの誇張だとわかりました。それでも、AIが一貫した価値観を持っていないと思うと少し不安になります。未来について考えさせられますね、🤔




MITの研究によると、AIが独自の価値観を持つことはないらしいですね。これは安心ですが、AIがどんな価値観を持つか見てみたかったです!🤖📚




O estudo do MIT me tranquilizou sobre a IA desenvolver seus próprios valores. É reconfortante saber que a IA não tem sua própria agenda, mas também é um pouco decepcionante porque seria legal ver que tipo de valores a IA poderia desenvolver! 🤖📚












