option
Maison
Nouvelles
Prevure à l'échelle AI remise en question par les experts

Prevure à l'échelle AI remise en question par les experts

10 avril 2025
97

Prevure à l'échelle AI remise en question par les experts

Il y a eu un certain buzz sur les réseaux sociaux concernant la découverte par des chercheurs d'une nouvelle "loi d'échelle" pour l'IA, mais les experts la prennent avec des pincettes. Les lois d'échelle de l'IA, qui ressemblent plus à des lignes directrices informelles, montrent comment les modèles d'IA s'améliorent lorsqu'on leur fournit plus de données et de puissance de calcul. Jusqu'à il y a environ un an, la grande tendance était axée sur le "pré-entraînement" – en gros, entraîner des modèles plus grands sur des ensembles de données plus vastes. Cela reste d'actualité, mais maintenant, deux autres lois d'échelle sont entrées en jeu : l'échelle post-entraînement, qui consiste à ajuster le comportement d'un modèle, et l'échelle au moment du test, qui implique d'utiliser plus de puissance de calcul pendant l'inférence pour améliorer les capacités de "raisonnement" d'un modèle (pensez à des modèles comme R1).

Récemment, des chercheurs de Google et de l'UC Berkeley ont publié un article que certains sur Internet qualifient de quatrième loi : la "recherche au moment de l'inférence". Cette méthode pousse le modèle à produire simultanément plusieurs réponses possibles à une requête, puis à choisir la meilleure. Les chercheurs affirment que cela peut améliorer les performances d'un modèle plus ancien, comme Gemini 1.5 Pro de Google, pour surpasser le modèle de "raisonnement" o1-preview d'OpenAI sur des benchmarks scientifiques et mathématiques.

Eric Zhao, doctorant chez Google et co-auteur de l'article, a partagé sur X qu'en échantillonnant aléatoirement 200 réponses et en laissant le modèle s'auto-vérifier, Gemini 1.5 – qu'il a qualifié en plaisantant de "modèle ancien du début 2024" – pouvait surpasser o1-preview et même se rapprocher d'o1. Il a souligné que l'auto-vérification devient plus facile à mesure que l'on augmente l'échelle, ce qui est plutôt contre-intuitif mais intéressant.

Mais tout le monde n'est pas convaincu. Matthew Guzdial, chercheur en IA et professeur adjoint à l'Université de l'Alberta, a déclaré à TechCrunch que cette approche fonctionne mieux lorsqu'on dispose d'un moyen solide pour évaluer les réponses. La plupart des questions ne sont pas aussi simples, cependant. Il a dit : "Si nous ne pouvons pas écrire de code pour définir ce que nous voulons, nous ne pouvons pas utiliser la recherche [au moment de l'inférence]. Pour quelque chose comme l'interaction linguistique générale, nous ne pouvons pas faire cela... Ce n'est généralement pas une bonne approche pour résoudre la plupart des problèmes."

Zhao a répondu en disant que leur article examine justement les cas où il n'y a pas de moyen clair pour évaluer les réponses, et le modèle doit le déterminer par lui-même. Il a soutenu que l'écart entre avoir un moyen clair d'évaluer et ne pas en avoir peut se réduire à mesure que l'on augmente l'échelle.

Mike Cook, chercheur à King's College London, a appuyé l'opinion de Guzdial, déclarant que la recherche au moment de l'inférence ne rend pas vraiment le raisonnement du modèle meilleur. C'est plus une solution de contournement pour la tendance du modèle à faire des erreurs avec assurance. Il a souligné que si votre modèle se trompe 5 % du temps, vérifier 200 tentatives devrait faciliter la détection de ces erreurs.

Cette nouvelle pourrait être un peu décevante pour l'industrie de l'IA, qui est toujours à la recherche de moyens d'améliorer le "raisonnement" des modèles sans se ruiner. Comme l'ont noté les auteurs de l'article, les modèles de raisonnement peuvent engendrer des milliers de dollars en coûts de calcul juste pour résoudre un problème mathématique.

Il semble que la recherche de nouvelles techniques d'échelle soit loin d'être terminée.

Mise à jour le 20/03 à 5h12 du matin, heure du Pacifique : Ajout des commentaires du co-auteur de l'étude, Eric Zhao, qui conteste une évaluation faite par un chercheur indépendant ayant critiqué le travail.

Article connexe
Étude de Microsoft révèle les limites des modèles d'IA dans le débogage de logiciels Étude de Microsoft révèle les limites des modèles d'IA dans le débogage de logiciels Les modèles d'IA d'OpenAI, Anthropic et d'autres laboratoires d'IA de pointe sont de plus en plus utilisés pour les tâches de codage. Le PDG de Google, Sundar Pichai, a noté en octobre que l'IA génère
Solutions alimentées par l'IA pourraient réduire significativement les émissions mondiales de carbone Solutions alimentées par l'IA pourraient réduire significativement les émissions mondiales de carbone Une étude récente de la London School of Economics et Systemiq révèle que l'intelligence artificielle pourrait considérablement réduire les émissions mondiales de carbone sans sacrifier les commodités
Nouvelle étude révèle combien de données les LLM mémorisent réellement Nouvelle étude révèle combien de données les LLM mémorisent réellement Combien les modèles d'IA mémorisent-ils réellement ? Une nouvelle recherche révèle des insights surprenantsNous savons tous que les grands modèles de langage (LLM) comme ChatGPT, Claude et Gemini sont
commentaires (35)
0/200
DanielThomas
DanielThomas 24 avril 2025 01:49:41 UTC+02:00

AI 스케일링 돌파구는 멋지게 들리지만, 전문가들은 회의적이에요. 🤔 이제 뭘 믿어야 할지 모르겠어요. 그냥 과대광고일까요? 지켜볼게요, 하지만 기대는 하지 않을게요. 😴

BenRoberts
BenRoberts 23 avril 2025 20:12:49 UTC+02:00

This AI scaling law thing sounds cool, but it's hard to get excited when experts are so skeptical. It's like they're saying, 'Sure, it's interesting, but let's not get carried away.' I guess we'll see if it's the real deal or just another hype train. 🤔

PatrickMartinez
PatrickMartinez 21 avril 2025 21:31:56 UTC+02:00

Essa história de lei de escalabilidade de IA parece legal, mas é difícil se empolgar quando os especialistas são tão céticos. Parece que eles estão dizendo, 'Sim, é interessante, mas não vamos nos empolgar muito'. Vamos ver se é verdade ou só mais um hype. 🤔

JohnYoung
JohnYoung 20 avril 2025 02:36:43 UTC+02:00

AI 스케일링 법칙에 대한 소식은 흥미롭지만, 전문가들이 회의적이라서 흥분하기 어려워. '재미있지만 너무 기대하지 마세요'라는 느낌이야. 실제로 어떻게 될지 지켜봐야겠네. 🤔

HaroldMoore
HaroldMoore 17 avril 2025 13:24:24 UTC+02:00

AIのスケーリングブレイクスルーは面白そうだけど、専門家は懐疑的。🤔 もう何を信じればいいのかわからない。ただの誇大広告かも?注目はするけど、期待はしないよ。😴

AlbertLee
AlbertLee 16 avril 2025 17:25:29 UTC+02:00

El avance en la escala de IA suena genial, pero todavía no lo compro. Es todo un hype en las redes sociales, pero los expertos son escépticos. Esperaré más pruebas sólidas antes de subirme al carro. 🤔

Retour en haut
OR