専門家から質問されたAIスケーリングブレークスルー

ソーシャルメディアで、研究者が新しいAI「スケーリング法則」を発見したという話題が盛り上がっていますが、専門家は慎重な姿勢です。AIスケーリング法則は、正式なガイドラインというより、データや計算能力を増やすとAIモデルが向上することを示しています。約1年前までは、「事前学習」—つまり、より大きなデータセットでより大きなモデルを訓練すること—が主流でした。それは今も続いていますが、新たに2つのスケーリング法則が加わりました:モデルの振る舞いを調整する「事後学習スケーリング」と、推論時に計算能力を増やしてモデルの「推論」能力を高める「テスト時スケーリング」(R1のようなモデルを考えてください)。
最近、GoogleとUCバークレーの研究者が発表した論文が、オンラインで一部の人々から「第4の法則」と呼ばれる「推論時探索」です。この方法では、モデルがクエリに対して複数の可能な回答を同時に生成し、最適なものを選びます。研究者は、この方法でGoogleのGemini 1.5 Proのような古いモデルを強化し、科学や数学のベンチマークでOpenAIのo1-preview「推論」モデルを上回ることができると主張しています。
論文の共著者でGoogleの博士課程フェローであるEric Zhaoは、Xで、200の応答をランダムにサンプリングし、モデルが自己検証するだけで、Gemini 1.5—彼が冗談で「2024年初頭の古いモデル」と呼んだもの—がo1-previewを上回り、o1に近づけると共有しました。彼は、自己検証はスケールアップするほど簡単になると指摘し、これは直感に反しますが面白いと述べました。
しかし、誰もが納得しているわけではありません。アルバータ大学のAI研究者で助教授のMatthew Guzdialは、TechCrunchに対し、このアプローチは回答を判断する確固たる方法がある場合に最も効果的だと語りました。しかし、ほとんどの質問はそれほど単純ではありません。彼は、「望むものを定義するコードを書けない場合、[推論時]探索は使えません。一般的な言語対話のようなものでは、これはできません…実際のほとんどの問題解決には一般的に良いアプローチではありません」と述べました。
Zhaoは、論文では回答を判断する明確な方法がない場合を実際に見ており、モデルが自分で判断する必要があると反論しました。彼は、明確な判断方法がある場合とない場合のギャップは、スケールアップするにつれて縮まると主張しました。
キングス・カレッジ・ロンドンの研究フェローであるMike Cookは、Guzdialの意見を支持し、推論時探索はモデルの推論を本当により良くするものではないと言いました。それは、モデルが自信を持って間違える傾向に対する回避策のようなものです。彼は、モデルが5%の確率で間違える場合、200の試行をチェックすることでその間違いを見つけやすくなると指摘しました。
このニュースは、モデル「推論」をコストをかけずに向上させる方法を常に探しているAI業界にとって少し残念なものかもしれません。論文の著者が指摘したように、推論モデルは1つの数学問題を解くだけで数千ドルの計算コストがかかることがあります。
新しいスケーリング技術の探求はまだ終わっていません。
更新 3/20 午前5:12 太平洋時間:研究の共著者Eric Zhaoのコメントを追加。彼は、研究を批判した独立研究者の評価に異議を唱えています。
関連記事
Microsoft Study Reveals AI Models' Limitations in Software Debugging
OpenAI、Anthropic、その他の主要AIラボのAIモデルは、コーディングタスクにますます活用されています。GoogleのCEOであるSundar Pichaiは10月に、AIが同社の新しいコードの25%を生成していると述べ、MetaのCEOであるMark Zuckerbergは、ソーシャルメディア大手内でAIコーディングツールを広く導入することを目指しています。しかし、最高性能のモデルで
AI駆動のソリューションが世界の炭素排出量を大幅に削減可能
ロンドン経済学校とSystemiqの最近の研究によると、人工知能は現代の利便性を犠牲にせず、世界の炭素排出量を大幅に削減でき、気候変動対策の重要な味方となる可能性がある。この研究は、3つのセクターでのインテリジェントなAIアプリケーションが、2035年までに年間32億~54億トンの温室効果ガス排出量を削減できると強調している。一般的な懸念とは異なり、これらの削減はAI運用の炭素フットプリントをはる
新しい研究がLLMが実際にどれだけデータを記憶するかを明らかに
AIモデルは実際にどれだけ記憶するのか? 新しい研究が驚くべき洞察を明らかにChatGPT、Claude、Geminiなどの大規模言語モデル(LLM)は、本、ウェブサイト、コード、そして画像や音声などのマルチメディアからなる膨大なデータセット—何兆もの単語—で訓練されています。しかし、そのデータはどうなるのでしょうか? これらのモデルは本当に言語を「理解」しているのか、それとも記憶した断片をただ繰
コメント (35)
0/200
DanielThomas
2025年4月24日 8:49:41 JST
AI 스케일링 돌파구는 멋지게 들리지만, 전문가들은 회의적이에요. 🤔 이제 뭘 믿어야 할지 모르겠어요. 그냥 과대광고일까요? 지켜볼게요, 하지만 기대는 하지 않을게요. 😴
0
BenRoberts
2025年4月24日 3:12:49 JST
This AI scaling law thing sounds cool, but it's hard to get excited when experts are so skeptical. It's like they're saying, 'Sure, it's interesting, but let's not get carried away.' I guess we'll see if it's the real deal or just another hype train. 🤔
0
PatrickMartinez
2025年4月22日 4:31:56 JST
Essa história de lei de escalabilidade de IA parece legal, mas é difícil se empolgar quando os especialistas são tão céticos. Parece que eles estão dizendo, 'Sim, é interessante, mas não vamos nos empolgar muito'. Vamos ver se é verdade ou só mais um hype. 🤔
0
JohnYoung
2025年4月20日 9:36:43 JST
AI 스케일링 법칙에 대한 소식은 흥미롭지만, 전문가들이 회의적이라서 흥분하기 어려워. '재미있지만 너무 기대하지 마세요'라는 느낌이야. 실제로 어떻게 될지 지켜봐야겠네. 🤔
0
HaroldMoore
2025年4月17日 20:24:24 JST
AIのスケーリングブレイクスルーは面白そうだけど、専門家は懐疑的。🤔 もう何を信じればいいのかわからない。ただの誇大広告かも?注目はするけど、期待はしないよ。😴
0
AlbertLee
2025年4月17日 0:25:29 JST
El avance en la escala de IA suena genial, pero todavía no lo compro. Es todo un hype en las redes sociales, pero los expertos son escépticos. Esperaré más pruebas sólidas antes de subirme al carro. 🤔
0
ソーシャルメディアで、研究者が新しいAI「スケーリング法則」を発見したという話題が盛り上がっていますが、専門家は慎重な姿勢です。AIスケーリング法則は、正式なガイドラインというより、データや計算能力を増やすとAIモデルが向上することを示しています。約1年前までは、「事前学習」—つまり、より大きなデータセットでより大きなモデルを訓練すること—が主流でした。それは今も続いていますが、新たに2つのスケーリング法則が加わりました:モデルの振る舞いを調整する「事後学習スケーリング」と、推論時に計算能力を増やしてモデルの「推論」能力を高める「テスト時スケーリング」(R1のようなモデルを考えてください)。
最近、GoogleとUCバークレーの研究者が発表した論文が、オンラインで一部の人々から「第4の法則」と呼ばれる「推論時探索」です。この方法では、モデルがクエリに対して複数の可能な回答を同時に生成し、最適なものを選びます。研究者は、この方法でGoogleのGemini 1.5 Proのような古いモデルを強化し、科学や数学のベンチマークでOpenAIのo1-preview「推論」モデルを上回ることができると主張しています。
論文の共著者でGoogleの博士課程フェローであるEric Zhaoは、Xで、200の応答をランダムにサンプリングし、モデルが自己検証するだけで、Gemini 1.5—彼が冗談で「2024年初頭の古いモデル」と呼んだもの—がo1-previewを上回り、o1に近づけると共有しました。彼は、自己検証はスケールアップするほど簡単になると指摘し、これは直感に反しますが面白いと述べました。
しかし、誰もが納得しているわけではありません。アルバータ大学のAI研究者で助教授のMatthew Guzdialは、TechCrunchに対し、このアプローチは回答を判断する確固たる方法がある場合に最も効果的だと語りました。しかし、ほとんどの質問はそれほど単純ではありません。彼は、「望むものを定義するコードを書けない場合、[推論時]探索は使えません。一般的な言語対話のようなものでは、これはできません…実際のほとんどの問題解決には一般的に良いアプローチではありません」と述べました。
Zhaoは、論文では回答を判断する明確な方法がない場合を実際に見ており、モデルが自分で判断する必要があると反論しました。彼は、明確な判断方法がある場合とない場合のギャップは、スケールアップするにつれて縮まると主張しました。
キングス・カレッジ・ロンドンの研究フェローであるMike Cookは、Guzdialの意見を支持し、推論時探索はモデルの推論を本当により良くするものではないと言いました。それは、モデルが自信を持って間違える傾向に対する回避策のようなものです。彼は、モデルが5%の確率で間違える場合、200の試行をチェックすることでその間違いを見つけやすくなると指摘しました。
このニュースは、モデル「推論」をコストをかけずに向上させる方法を常に探しているAI業界にとって少し残念なものかもしれません。論文の著者が指摘したように、推論モデルは1つの数学問題を解くだけで数千ドルの計算コストがかかることがあります。
新しいスケーリング技術の探求はまだ終わっていません。
更新 3/20 午前5:12 太平洋時間:研究の共著者Eric Zhaoのコメントを追加。彼は、研究を批判した独立研究者の評価に異議を唱えています。



AI 스케일링 돌파구는 멋지게 들리지만, 전문가들은 회의적이에요. 🤔 이제 뭘 믿어야 할지 모르겠어요. 그냥 과대광고일까요? 지켜볼게요, 하지만 기대는 하지 않을게요. 😴




This AI scaling law thing sounds cool, but it's hard to get excited when experts are so skeptical. It's like they're saying, 'Sure, it's interesting, but let's not get carried away.' I guess we'll see if it's the real deal or just another hype train. 🤔




Essa história de lei de escalabilidade de IA parece legal, mas é difícil se empolgar quando os especialistas são tão céticos. Parece que eles estão dizendo, 'Sim, é interessante, mas não vamos nos empolgar muito'. Vamos ver se é verdade ou só mais um hype. 🤔




AI 스케일링 법칙에 대한 소식은 흥미롭지만, 전문가들이 회의적이라서 흥분하기 어려워. '재미있지만 너무 기대하지 마세요'라는 느낌이야. 실제로 어떻게 될지 지켜봐야겠네. 🤔




AIのスケーリングブレイクスルーは面白そうだけど、専門家は懐疑的。🤔 もう何を信じればいいのかわからない。ただの誇大広告かも?注目はするけど、期待はしないよ。😴




El avance en la escala de IA suena genial, pero todavía no lo compro. Es todo un hype en las redes sociales, pero los expertos son escépticos. Esperaré más pruebas sólidas antes de subirme al carro. 🤔












