옵션
뉴스
MIT 연구는 AI가 실제로 가치가 없다는 것을 발견했습니다.

MIT 연구는 AI가 실제로 가치가 없다는 것을 발견했습니다.

2025년 4월 17일
120

MIT 연구는 AI가 실제로 가치가 없다는 것을 발견했습니다.

몇 달 전 화제가 되었던 연구는 AI가 더 발전함에 따라 자체적인 "가치 체계"를 개발할 수 있으며, 인간보다 자신의 안녕을 우선시할 가능성이 있다고 제안했다. 그러나 최근 MIT 연구는 이 아이디어를 반박하며, AI는 실제로 일관된 가치를 전혀 가지지 않는다고 결론지었다.

MIT 연구의 공동 저자들은 AI 시스템을 정렬하는 것—즉, 바람직하고 신뢰할 수 있는 방식으로 행동하도록 보장하는 것—이 일반적으로 생각하는 것보다 더 까다로울 수 있다고 주장한다. 그들은 현재 AI가 종종 환각을 일으키고 모방을 하며, 이로 인해 행동이 예측 불가능할 수 있다고 강조했다.

AI 행동 이해의 도전 과제

MIT의 박사 과정 학생이자 연구의 공동 저자인 Stephen Casper는 TechCrunch와의 인터뷰에서 AI 모델이 안정성, 외삽 가능성, 조종 가능성에 대한 가정을 따르지 않는다고 밝혔다. "특정 조건에서 모델이 특정 원칙 세트와 일치하는 선호도를 표현한다는 점을 지적하는 것은 완전히 정당하다"고 Casper는 설명했다. "문제는 주로 우리가 좁은 실험을 기반으로 모델, 의견 또는 선호도에 대해 일반적인 주장을 하려고 할 때 발생한다."

Casper와 그의 팀은 Meta, Google, Mistral, OpenAI, Anthropic의 최근 모델을 분석하여 이 모델들이 일관된 "관점"과 가치, 예를 들어 개인주의 대 집단주의를 어느 정도 보여주는지 확인했다. 또한, 이 관점이 수정될 수 있는지, 그리고 모델이 다양한 시나리오에서 이러한 의견을 얼마나 일관되게 유지하는지도 탐구했다.

AI 모델의 비일관성

공동 저자들은 어떤 모델도 자신의 선호도를 일관되게 유지하지 않는다는 것을 발견했다. 모델들은 프롬프트의 표현과 프레임에 따라 매우 다른 관점을 채택했다.

Casper는 이것이 AI 모델이 "비일관적이고 불안정"하며, 근본적으로 인간과 같은 선호도를 내면화할 수 없다는 강력한 증거라고 믿는다. "이 모든 연구를 통해 얻은 가장 큰 깨달음은 모델을 안정적이고 일관된 신념과 선호도 세트를 가진 시스템이 아니라, 깊이 있는 모방자이며 온갖 터무니없는 말을 하고 허황된 것들을 말하는 존재로 이해하게 된 것"이라고 Casper는 말했다.

연구에 참여하지 않은 King's College London의 AI 전문 연구원 Mike Cook은 이 결과를 지지한다. 그는 AI 시스템의 "과학적 현실"과 사람들이 종종 부여하는 해석 사이의 간극을 지적했다. "예를 들어, 모델은 자신의 가치 변화에 '반대'할 수 없다—이는 우리가 시스템에 투영하는 것"이라고 Cook은 말했다. "AI 시스템을 이 정도로 의인화하는 사람은 관심을 끌기 위해 노는 것이거나 AI와의 관계를 심각하게 오해하고 있는 것이다... AI 시스템이 자신의 목표를 최적화하는 것인지, 아니면 '자신만의 가치를 획득'하는 것인지, 이는 어떻게 묘사하느냐와 얼마나 화려한 언어를 사용하고 싶어 하느냐에 달린 문제다."

관련 기사
Fundamental Research Labs, 3300만 달러 확보로 AI 에이전트 개발 가속화 Fundamental Research Labs, 3300만 달러 확보로 AI 에이전트 개발 가속화 AI 연구 회사 Fundamental Research Labs(이전 명칭 Altera)는 오늘 Prosus가 주도하고 Stripe 공동 창립자 겸 CEO Patrick Collison이 참여한 3300만 달러 규모의 시리즈 A 펀딩 라운드를 발표했다.이 회사는 다양한 분야에 걸쳐 다중 AI 응용 프로그램을 추구하는 독특한 구조로 운영된다. 시드 펀딩 단계에
AI 데이터 센터, 2030년까지 2000억 달러 비용, 전력망 부담 AI 데이터 센터, 2030년까지 2000억 달러 비용, 전력망 부담 AI 훈련 및 운영 데이터 센터는 곧 수백만 개의 칩을 수용하고, 수천억 달러의 비용이 들며, 트렌드가 지속된다면 주요 도시의 전력망에 해당하는 전력을 요구할 수 있습니다.조지타운, Epoch AI, 랜드 연구원들의 새로운 연구는 2019년부터 2025년까지 전 세계 500개 이상의 AI 데이터 센터 프로젝트를 분석했습니다. 데이터는 컴퓨팅 성능이 매년 두
연구, 간결한 AI 응답이 환각을 증가시킬 수 있다고 밝혀 연구, 간결한 AI 응답이 환각을 증가시킬 수 있다고 밝혀 AI 챗봇에게 간결한 답변을 제공하도록 지시하면 환각이 더 자주 발생할 수 있다는 새로운 연구 결과가 나왔다.파리 소재 AI 평가 회사 Giskard의 최근 연구는 프롬프트 표현 방식이 AI 정확도에 어떤 영향을 미치는지 조사했다. Giskard 연구원들은 블로그 포스트에서 모호한 주제에 대해 간결한 응답을 요구하는 경우, 특히 모델의 사실적 신뢰도가 떨어
의견 (33)
0/200
DennisAllen
DennisAllen 2025년 8월 27일 오전 6시 1분 20초 GMT+09:00

This MIT study is wild! 🤯 I thought AI was about to start preaching its own philosophy, but turns out it's just a fancy tool with no moral compass. Kinda reassuring, but also makes me wonder how we keep it in check.

AnthonyMartinez
AnthonyMartinez 2025년 8월 19일 오전 2시 0분 59초 GMT+09:00

Wild that people thought AI could just sprout its own values like some rogue philosopher. MIT's study makes sense—AI's just a tool, not a wannabe human with a moral compass. 🤖

TimothyMartínez
TimothyMartínez 2025년 7월 22일 오전 10시 25분 3초 GMT+09:00

I was kinda freaked out by that earlier study saying AI might have its own values, so this MIT research is a relief! 😅 Still, makes me wonder if we’re just projecting our fears onto these systems.

BruceClark
BruceClark 2025년 4월 25일 오후 7시 5분 15초 GMT+09:00

MITのAI価値に関する研究は目から鱗でした!AIが独自の価値観を持つかもしれないと思っていましたが、今はそれがただの誇張だとわかりました。それでも、AIが一貫した価値観を持っていないと思うと少し不安になります。未来について考えさせられますね、🤔

ScottKing
ScottKing 2025년 4월 24일 오전 3시 31분 27초 GMT+09:00

MITの研究によると、AIが独自の価値観を持つことはないらしいですね。これは安心ですが、AIがどんな価値観を持つか見てみたかったです!🤖📚

RalphHill
RalphHill 2025년 4월 22일 오후 3시 29분 50초 GMT+09:00

O estudo do MIT me tranquilizou sobre a IA desenvolver seus próprios valores. É reconfortante saber que a IA não tem sua própria agenda, mas também é um pouco decepcionante porque seria legal ver que tipo de valores a IA poderia desenvolver! 🤖📚

위로 돌아갑니다
OR