Prevure à l'échelle AI remise en question par les experts

Il y a eu un buzz sur les réseaux sociaux au sujet des chercheurs découvrant une nouvelle «loi sur la mise à l'échelle», mais les experts le prennent avec un grain de sel. Les lois sur la mise à l'échelle de l'IA, qui ressemblent davantage aux directives informelles, montrent comment les modèles AI s'améliorent lorsque vous leur jetez plus de données et de la puissance de calcul. Jusqu'à il y a environ un an, la grande tendance était une question de «pré-formation» - en gros, de la formation de modèles plus importants sur des ensembles de données plus importants. C'est toujours une chose, mais maintenant nous avons deux autres lois sur la mise à l'échelle dans le mélange: la mise à l'échelle post-entraînement, qui consiste à peaufiner le comportement d'un modèle et à l'échelle de test, ce qui implique d'utiliser plus de puissance de calcul pendant l'inférence pour augmenter les capacités de "raisonnement" d'un modèle (pensez des modèles comme R1). Récemment, des chercheurs de Google et de l'UC Berkeley ont abandonné un article que certaines personnes en ligne appellent une quatrième loi: «Recherche de temps de référence». Cette méthode fait cracher un tas de réponses possibles à une requête en même temps, puis choisir la meilleure. Les chercheurs affirment que cela peut faire monter les performances d'un modèle plus ancien, comme Gemini 1.5 Pro de Google, pour battre le modèle de raisonnement O1-Preview d'Openai sur les références scientifiques et mathématiques. Eric Zhao, un doctorat de Google et l'un des co-auteurs du journal, a partagé sur X qui, en échantillonnant au hasard 200 réponses et en laissant le modèle auto-vérifier, Gemini 1.5 - qu'il a appelé en plaisantant un "ancien modèle du début 2024" - pourrait surpasser O1-Preview et même s'approcher de l'O1. Il a souligné que l'auto-vérification devient plus facile à mesure que vous montez, ce qui est un peu contre-intuitif mais cool. Mais tout le monde n'est pas convaincu. Matthew Guzdial, chercheur de l'IA et professeur adjoint à l'Université de l'Alberta, a déclaré à TechCrunch que cette approche fonctionne mieux lorsque vous avez un moyen solide de juger les réponses. Mais la plupart des questions ne sont pas si simples. Il a dit: "Si nous ne pouvons pas écrire de code pour définir ce que nous voulons, nous ne pouvons pas utiliser la recherche [inférence]. Pour quelque chose comme l'interaction du langage général, nous ne pouvons pas faire cela ... ce n'est généralement pas une excellente approche pour résoudre réellement la plupart des problèmes." Zhao a répondu, disant que leur article examine les cas où vous n'avez pas de moyen clair de juger les réponses, et le modèle doit le comprendre seul. Il a fait valoir que l'écart entre avoir un moyen clair de juger et de ne pas en avoir peut rétrécir lorsque vous montez. Mike Cook, chercheur au King's College de Londres, a soutenu le point de vue de Guzdial, affirmant que la recherche en temps de référence n'améliore pas vraiment le raisonnement du modèle. Cela ressemble plus à une solution de contournement pour la tendance du modèle à faire des erreurs confiantes. Il a souligné que si votre modèle gâche 5% du temps, la vérification de 200 tentatives devrait rendre ces erreurs plus faciles à repérer. Cette nouvelle pourrait être un peu un descente pour l'industrie de l'IA, qui est toujours à la recherche de moyens de stimuler le «raisonnement» du modèle sans se ruiner. Comme les auteurs du journal l'ont noté, les modèles de raisonnement peuvent accumuler des milliers de dollars en coûts informatiques juste pour résoudre un problème mathématique. On dirait que la recherche de nouvelles techniques de mise à l'échelle est loin d'être terminée. * Mis à jour 3/20 5:12 AM PACIFIQUE: Ajout des commentaires du co-auteur de l'étude Eric Zhao, qui conteste une évaluation par un chercheur indépendant qui a critiqué l'œuvre. *
Article connexe
專注於實惠增強現實的真實對焦系統
顛覆基於投影的增強現實技術來自著名機構電機電子工程師學會(IEEE)的研究人員在基於投影的增強現實領域取得了突破性的進展。他們的解決方案?配備了電控可變焦鏡片(ETL)的特殊眼鏡,這些鏡片模擬人類眼睛自然感知深度的方式。這種創新的方法解決了使投影系統在受控環境中真正實用的主要障礙。想像一下走進一個房間,其中投影的3D物體看起來就像周圍的家具一樣真實。這就是該
我們如何使用AI來幫助城市應對極端熱量
看起來2024年可能會打破迄今為止最熱的一年的記錄,超過了2023年。這種趨勢對生活在城市熱島的人們來說尤為艱難,這些景點是在混凝土和瀝青浸泡太陽射線,然後散發出熱量的城市中的那些景點。這些區域可以溫暖
commentaires (35)
0/200
JustinJackson
11 avril 2025 00:00:00 UTC
The hype around this new AI scaling law is a bit overblown, if you ask me. Experts are skeptical, and I'm not surprised. It's interesting, but I'm not ready to bet the farm on it just yet. Anyone else feeling the same?
0
PatrickCarter
11 avril 2025 00:00:00 UTC
この新しいAIスケーリング法の話題、少し大げさに感じます。専門家も懐疑的で、私も驚きません。興味深いですが、まだ全面的に信じるのは早いかなと思います。皆さんも同じ気持ちですか?
0
AnthonyPerez
11 avril 2025 00:00:00 UTC
이 새로운 AI 스케일링 법에 대한 과대광고는 조금 과장된 것 같아요. 전문가들도 회의적이고, 저도 놀랍지 않아요. 흥미롭긴 하지만, 아직 이것에 전부를 걸기에는 이릅니다. 다른 분들도 같은 생각이신가요?
0
JamesTaylor
11 avril 2025 00:00:00 UTC
O hype em torno dessa nova lei de escalabilidade de IA está um pouco exagerado, se me perguntar. Os especialistas estão céticos e eu não fico surpreso. É interessante, mas ainda não estou pronto para apostar tudo nisso. Alguém mais sente o mesmo?
0
GeorgeEvans
11 avril 2025 00:00:00 UTC
El entusiasmo alrededor de esta nueva ley de escalabilidad de IA está un poco exagerado, si me lo preguntas. Los expertos son escépticos y no me sorprende. Es interesante, pero no estoy listo para apostar todo en esto todavía. ¿Alguien más siente lo mismo?
0
PaulHernández
11 avril 2025 00:00:00 UTC
Heard about this new AI scaling law? Sounds cool but honestly, I'm not convinced. It feels like every other week there's a new 'breakthrough' that fizzles out. Experts seem skeptical too, so I'm just gonna wait and see. Anyone else feel the same?
0



The hype around this new AI scaling law is a bit overblown, if you ask me. Experts are skeptical, and I'm not surprised. It's interesting, but I'm not ready to bet the farm on it just yet. Anyone else feeling the same?




この新しいAIスケーリング法の話題、少し大げさに感じます。専門家も懐疑的で、私も驚きません。興味深いですが、まだ全面的に信じるのは早いかなと思います。皆さんも同じ気持ちですか?




이 새로운 AI 스케일링 법에 대한 과대광고는 조금 과장된 것 같아요. 전문가들도 회의적이고, 저도 놀랍지 않아요. 흥미롭긴 하지만, 아직 이것에 전부를 걸기에는 이릅니다. 다른 분들도 같은 생각이신가요?




O hype em torno dessa nova lei de escalabilidade de IA está um pouco exagerado, se me perguntar. Os especialistas estão céticos e eu não fico surpreso. É interessante, mas ainda não estou pronto para apostar tudo nisso. Alguém mais sente o mesmo?




El entusiasmo alrededor de esta nueva ley de escalabilidad de IA está un poco exagerado, si me lo preguntas. Los expertos son escépticos y no me sorprende. Es interesante, pero no estoy listo para apostar todo en esto todavía. ¿Alguien más siente lo mismo?




Heard about this new AI scaling law? Sounds cool but honestly, I'm not convinced. It feels like every other week there's a new 'breakthrough' that fizzles out. Experts seem skeptical too, so I'm just gonna wait and see. Anyone else feel the same?












