옵션
뉴스
AI 스케일링 획기적인 전문가가 의문을 제기했습니다

AI 스케일링 획기적인 전문가가 의문을 제기했습니다

2025년 4월 10일
97

AI 스케일링 획기적인 전문가가 의문을 제기했습니다

소셜 미디어에서 연구자들이 새로운 AI "스케일링 법칙"을 발견했다는 소식이 화제가 되었지만, 전문가들은 이를 신중히 받아들이고 있습니다. AI 스케일링 법칙은 비공식적 지침에 가까우며, 더 많은 데이터와 컴퓨팅 파워를 투입할수록 AI 모델이 향상되는 방식을 보여줍니다. 약 1년 전까지만 해도 주요 트렌드는 "사전 훈련"이었는데, 이는 더 큰 데이터셋으로 더 큰 모델을 훈련시키는 것이었습니다. 이는 여전히 유효하지만, 이제 두 가지 새로운 스케일링 법칙이 추가되었습니다: 모델의 행동을 조정하는 사후 훈련 스케일링과 추론 시 더 많은 컴퓨팅 파워를 사용해 모델의 "추론" 능력을 향상시키는 테스트 타임 스케일링(예: R1 모델).

최근 Google과 UC Berkeley의 연구자들이 발표한 논문은 온라인에서 일부 사람들이 네 번째 법칙으로 부르는 "추론 시 검색"에 관한 것입니다. 이 방법은 모델이 한 번의 질의에 대해 여러 가능한 답변을 생성한 뒤 최적의 답변을 선택하도록 합니다. 연구자들은 이 방법이 Google의 Gemini 1.5 Pro 같은 오래된 모델의 성능을 향상시켜 OpenAI의 o1-preview "추론" 모델을 과학 및 수학 벤치마크에서 능가할 수 있다고 주장합니다.

Google의 박사 펠로우이자 논문 공동 저자인 Eric Zhao는 X에서 200개의 응답을 무작위로 샘플링하고 모델이 자체 검증하도록 하면, 그가 농담으로 "2024년 초의 고대 모델"이라 부른 Gemini 1.5가 o1-preview를 능가하고 심지어 o1에 근접할 수 있다고 밝혔습니다. 그는 스케일이 커질수록 자체 검증이 더 쉬워진다고 지적했는데, 이는 직관에 반하지만 흥미롭습니다.

하지만 모두가 이에 동의하는 것은 아닙니다. 알버타 대학의 AI 연구자이자 조교수인 Matthew Guzdial은 TechCrunch에 이 접근법은 답변을 판단할 확실한 방법이 있을 때 가장 효과적이라고 말했습니다. 하지만 대부분의 질문은 그렇게 명확하지 않습니다. 그는 "우리가 원하는 것을 코드로 정의할 수 없다면, [추론 시] 검색을 사용할 수 없습니다. 일반적인 언어 상호작용 같은 경우에는 이를 할 수 없습니다... 이는 대부분의 문제를 실제로 해결하는 데 좋은 접근법이 아닙니다."라고 말했습니다.

이에 Zhao는 그들의 논문이 답변을 판단할 명확한 방법이 없는 경우를 실제로 다루며, 모델이 스스로 이를 파악해야 한다고 응답했습니다. 그는 명확한 판단 기준이 있는 경우와 없는 경우의 격차가 스케일이 커질수록 줄어들 수 있다고 주장했습니다.

킹스 칼리지 런던의 연구 펠로우인 Mike Cook은 Guzdial의 견해를 지지하며, 추론 시 검색은 모델의 추론 능력을 실제로 향상시키지 않는다고 말했습니다. 이는 모델이 자신 있게 잘못된 답변을 내놓는 경향을 우회하는 방법에 가깝습니다. 그는 모델이 5%의 시간 동안 실수한다면, 200번의 시도를 확인하면 그 실수를 더 쉽게 발견할 수 있다고 지적했습니다.

이 소식은 모델의 "추론" 능력을 비용을 들이지 않고 향상시키려는 AI 산업에 다소 실망스러운 소식일 수 있습니다. 논문 저자들은 추론 모델이 단 하나의 수학 문제를 해결하는 데에도 수천 달러의 컴퓨팅 비용이 들 수 있다고 언급했습니다.

새로운 스케일링 기술에 대한 탐색은 아직 끝나지 않은 것 같습니다.

업데이트: 3월 20일 오전 5:12 태평양 표준시: 연구 공동 저자인 Eric Zhao의 코멘트를 추가했으며, 그는 독립 연구자의 비판에 대해 반박했습니다.

관련 기사
Microsoft 연구, AI 모델의 소프트웨어 디버깅 한계 드러내다 Microsoft 연구, AI 모델의 소프트웨어 디버깅 한계 드러내다 OpenAI, Anthropic 및 기타 주요 AI 연구소의 AI 모델은 코딩 작업에 점점 더 많이 활용되고 있다. Google CEO Sundar Pichai는 10월에 AI가 회사 내 새로운 코드의 25%를 생성한다고 언급했으며, Meta CEO Mark Zuckerberg는 소셜 미디어 대기업 내에서 AI 코딩 도구를 광범위하게 구현하려고 한다.그러나
AI 기반 솔루션이 글로벌 탄소 배출을 크게 줄일 수 있음 AI 기반 솔루션이 글로벌 탄소 배출을 크게 줄일 수 있음 런던 경제 학교와 Systemiq의 최근 연구에 따르면, 인공지능은 현대적 편의를 희생하지 않으면서 글로벌 탄소 배출을 상당히 줄일 수 있으며, 기후 변화 대응에서 AI를 중요한 동맹으로 자리매김하고 있습니다.이 연구는 단 세 개의 산업에서 지능형 AI 응용 프로그램을 통해 2035년까지 매년 32억에서 54억 톤의 온실가스 배출을 줄일 수 있다고 강조합니
새로운 연구가 LLM이 실제로 얼마나 많은 데이터를 기억하는지 밝힘 새로운 연구가 LLM이 실제로 얼마나 많은 데이터를 기억하는지 밝힘 AI 모델은 실제로 얼마나 많이 기억할까? 새로운 연구가 놀라운 통찰을 제공우리 모두는 ChatGPT, Claude, Gemini와 같은 대형 언어 모델(LLM)이 책, 웹사이트, 코드, 심지어 이미지와 오디오 같은 멀티미디어에서 나온 수조 개의 단어로 훈련된다는 것을 알고 있습니다. 하지만 이 모든 데이터는 어떻게 되는 걸까요? 이 모델들은 언어를 정말로
의견 (35)
0/200
DanielThomas
DanielThomas 2025년 4월 24일 오전 8시 49분 41초 GMT+09:00

AI 스케일링 돌파구는 멋지게 들리지만, 전문가들은 회의적이에요. 🤔 이제 뭘 믿어야 할지 모르겠어요. 그냥 과대광고일까요? 지켜볼게요, 하지만 기대는 하지 않을게요. 😴

BenRoberts
BenRoberts 2025년 4월 24일 오전 3시 12분 49초 GMT+09:00

This AI scaling law thing sounds cool, but it's hard to get excited when experts are so skeptical. It's like they're saying, 'Sure, it's interesting, but let's not get carried away.' I guess we'll see if it's the real deal or just another hype train. 🤔

PatrickMartinez
PatrickMartinez 2025년 4월 22일 오전 4시 31분 56초 GMT+09:00

Essa história de lei de escalabilidade de IA parece legal, mas é difícil se empolgar quando os especialistas são tão céticos. Parece que eles estão dizendo, 'Sim, é interessante, mas não vamos nos empolgar muito'. Vamos ver se é verdade ou só mais um hype. 🤔

JohnYoung
JohnYoung 2025년 4월 20일 오전 9시 36분 43초 GMT+09:00

AI 스케일링 법칙에 대한 소식은 흥미롭지만, 전문가들이 회의적이라서 흥분하기 어려워. '재미있지만 너무 기대하지 마세요'라는 느낌이야. 실제로 어떻게 될지 지켜봐야겠네. 🤔

HaroldMoore
HaroldMoore 2025년 4월 17일 오후 8시 24분 24초 GMT+09:00

AIのスケーリングブレイクスルーは面白そうだけど、専門家は懐疑的。🤔 もう何を信じればいいのかわからない。ただの誇大広告かも?注目はするけど、期待はしないよ。😴

AlbertLee
AlbertLee 2025년 4월 17일 오전 12시 25분 29초 GMT+09:00

El avance en la escala de IA suena genial, pero todavía no lo compro. Es todo un hype en las redes sociales, pero los expertos son escépticos. Esperaré más pruebas sólidas antes de subirme al carro. 🤔

위로 돌아갑니다
OR