Noam Brown: les modèles de «raisonnement» AI auraient pu émerger il y a des décennies

Noam Brown, un chercheur de premier plan en raisonnement IA chez OpenAI, a récemment partagé des idées lors de la conférence GTC de Nvidia à San Jose, suggérant que des avancées dans l'IA de "raisonnement" auraient pu être réalisées 20 ans plus tôt si les bonnes méthodes et algorithmes avaient été connus. Il a expliqué : « Il y avait diverses raisons pour lesquelles cette direction de recherche a été négligée », mettant en lumière un écart dans l'approche qui aurait pu être comblé beaucoup plus tôt.
En réfléchissant à son parcours de recherche, Brown a noté une prise de conscience cruciale : « J'ai remarqué au cours de mes recherches que, d'accord, il manque quelque chose. Les humains passent beaucoup de temps à réfléchir avant d'agir dans une situation difficile. Peut-être que cela serait très utile [en IA]. » Cette observation l'a conduit à développer des modèles d'IA qui imitent le raisonnement humain, plutôt que de s'appuyer uniquement sur la puissance de calcul.
Son travail à l'Université Carnegie Mellon, en particulier avec l'IA Pluribus, qui a surpassé les meilleurs joueurs de poker humains, illustre cette approche. Pluribus était révolutionnaire car il utilisait le raisonnement pour résoudre des problèmes, contrairement aux méthodes de force brute plus courantes à l'époque.
Chez OpenAI, Brown a contribué au développement de o1, un modèle d'IA qui utilise une méthode connue sous le nom d'inférence au moment du test. Cette technique permet à l'IA de "penser" avant de répondre, améliorant sa précision et sa fiabilité, en particulier dans des domaines comme les mathématiques et les sciences.
Lors de la discussion en panel, Brown a abordé le défi de la recherche académique face à l'échelle des expériences menées par de grands laboratoires d'IA comme OpenAI. Il a reconnu la difficulté croissante en raison des demandes computationnelles croissantes des modèles modernes, mais a suggéré que les universitaires pourraient encore contribuer de manière significative en se concentrant sur des domaines nécessitant moins de puissance de calcul, comme la conception d'architectures de modèles.
Il a souligné le potentiel de collaboration entre le milieu académique et les laboratoires de pointe, déclarant : « [I]l y a une opportunité de collaboration entre les laboratoires de pointe [et le milieu académique]. Assurément, les laboratoires de pointe examinent les publications académiques et réfléchissent soigneusement à, d'accord, est-ce que cela présente un argument convaincant que, si cela était amplifié davantage, cela serait très efficace. S'il y a cet argument convaincant dans l'article, eh bien, nous l'explorerons dans ces laboratoires. »
Les commentaires de Brown sont particulièrement opportuns alors que l'administration Trump a proposé des coupes significatives dans le financement scientifique, une décision critiquée par des experts en IA, y compris Geoffrey Hinton, qui soutiennent que de telles coupes pourraient compromettre les efforts de recherche en IA à l'échelle mondiale.
Il a également souligné le rôle crucial du milieu académique dans l'amélioration des benchmarks d'IA, notant : « L'état des benchmarks en IA est vraiment mauvais, et cela ne nécessite pas beaucoup de calcul pour y remédier. » Les benchmarks d'IA actuels se concentrent souvent sur des connaissances obscures et ne reflètent pas précisément les capacités qui importent le plus aux utilisateurs, ce qui entraîne une confusion sur le véritable potentiel et les progrès des modèles d'IA.
Mis à jour à 16h06 PT : Une version antérieure de cet article suggérait que Brown faisait référence à des modèles de raisonnement comme o1 dans ses remarques initiales. En fait, il faisait référence à son travail sur l'IA de jeux avant son arrivée chez OpenAI. Nous regrettons l'erreur.
Article connexe
Ancien ingénieur d'OpenAI partage des idées sur la culture d'entreprise et la croissance rapide
Il y a trois semaines, Calvin French-Owen, un ingénieur qui a contribué à un produit clé d'OpenAI, a quitté l'entreprise.Il a récemment partagé un article de blog captivant détaillant son année chez O
Google dévoile les modèles AI Gemini 2.5 prêts pour la production pour rivaliser avec OpenAI sur le marché des entreprises
Google a intensifié sa stratégie AI lundi, lançant ses modèles avancés Gemini 2.5 pour une utilisation en entreprise et introduisant une variante économique pour concurrencer sur le prix et la perform
Meta Offre des Salaires Élevés pour les Talents en IA, Dément les Bonus de Signature de 100M$
Meta attire des chercheurs en IA vers son nouveau laboratoire de superintelligence avec des packages de rémunération de plusieurs millions de dollars. Cependant, les allégations de "bonus de signature
commentaires (13)
0/200
PatrickTaylor
8 août 2025 04:00:59 UTC+02:00
Mind-blowing to think AI reasoning could’ve popped off 20 years ago! 🤯 Noam’s talk makes me wonder what other breakthroughs we’re sleeping on right now.
0
JackMitchell
1 août 2025 04:48:18 UTC+02:00
Mind-blowing to think AI reasoning could’ve been cracked 20 years ago! 🤯 Makes you wonder what else we’re sitting on, just waiting for the right spark. Noam’s talk sounds like a wake-up call for the AI world.
0
AlbertScott
23 juillet 2025 10:50:48 UTC+02:00
Mind-blowing to think AI reasoning could've been cracked decades ago! 🤯 Makes you wonder what else we’re sitting on that’s just a breakthrough away.
0
LeviKing
23 avril 2025 17:47:27 UTC+02:00
노암 브라운의 통찰은 정말 놀랍습니다! 20년 전에 '추론' AI가 있었다면 세상이 얼마나 달라졌을까요? 🤯 GTC에서 그의 강연은 우리가 얼마나 놓친 것인지 깨닫게 해줬어요. 하지만 늦었다고 생각하지 말고, 다음 큰 것을 놓치지 않도록 합시다!
0
WillGarcía
23 avril 2025 09:02:14 UTC+02:00
ノアム・ブラウンの洞察は本当に驚きです!20年前に「推論」AIがあれば、世界はどれだけ違っていたでしょうか?🤯 GTCでの彼の話は、我々がどれだけ見逃してきたかを思い出させてくれました。でも、遅すぎることはないですよね?次に大きなものを見逃さないようにしましょう!
0
ThomasYoung
22 avril 2025 10:59:34 UTC+02:00
As percepções de Noam Brown são surpreendentes! Imagina se tivéssemos IA de 'raciocínio' há 20 anos? 🤯 A palestra dele no GTC foi um alerta sobre quanto perdemos. Mas, melhor tarde do que nunca, né? Vamos torcer para não perder a próxima grande coisa!
0
Noam Brown, un chercheur de premier plan en raisonnement IA chez OpenAI, a récemment partagé des idées lors de la conférence GTC de Nvidia à San Jose, suggérant que des avancées dans l'IA de "raisonnement" auraient pu être réalisées 20 ans plus tôt si les bonnes méthodes et algorithmes avaient été connus. Il a expliqué : « Il y avait diverses raisons pour lesquelles cette direction de recherche a été négligée », mettant en lumière un écart dans l'approche qui aurait pu être comblé beaucoup plus tôt.
En réfléchissant à son parcours de recherche, Brown a noté une prise de conscience cruciale : « J'ai remarqué au cours de mes recherches que, d'accord, il manque quelque chose. Les humains passent beaucoup de temps à réfléchir avant d'agir dans une situation difficile. Peut-être que cela serait très utile [en IA]. » Cette observation l'a conduit à développer des modèles d'IA qui imitent le raisonnement humain, plutôt que de s'appuyer uniquement sur la puissance de calcul.
Son travail à l'Université Carnegie Mellon, en particulier avec l'IA Pluribus, qui a surpassé les meilleurs joueurs de poker humains, illustre cette approche. Pluribus était révolutionnaire car il utilisait le raisonnement pour résoudre des problèmes, contrairement aux méthodes de force brute plus courantes à l'époque.
Chez OpenAI, Brown a contribué au développement de o1, un modèle d'IA qui utilise une méthode connue sous le nom d'inférence au moment du test. Cette technique permet à l'IA de "penser" avant de répondre, améliorant sa précision et sa fiabilité, en particulier dans des domaines comme les mathématiques et les sciences.
Lors de la discussion en panel, Brown a abordé le défi de la recherche académique face à l'échelle des expériences menées par de grands laboratoires d'IA comme OpenAI. Il a reconnu la difficulté croissante en raison des demandes computationnelles croissantes des modèles modernes, mais a suggéré que les universitaires pourraient encore contribuer de manière significative en se concentrant sur des domaines nécessitant moins de puissance de calcul, comme la conception d'architectures de modèles.
Il a souligné le potentiel de collaboration entre le milieu académique et les laboratoires de pointe, déclarant : « [I]l y a une opportunité de collaboration entre les laboratoires de pointe [et le milieu académique]. Assurément, les laboratoires de pointe examinent les publications académiques et réfléchissent soigneusement à, d'accord, est-ce que cela présente un argument convaincant que, si cela était amplifié davantage, cela serait très efficace. S'il y a cet argument convaincant dans l'article, eh bien, nous l'explorerons dans ces laboratoires. »
Les commentaires de Brown sont particulièrement opportuns alors que l'administration Trump a proposé des coupes significatives dans le financement scientifique, une décision critiquée par des experts en IA, y compris Geoffrey Hinton, qui soutiennent que de telles coupes pourraient compromettre les efforts de recherche en IA à l'échelle mondiale.
Il a également souligné le rôle crucial du milieu académique dans l'amélioration des benchmarks d'IA, notant : « L'état des benchmarks en IA est vraiment mauvais, et cela ne nécessite pas beaucoup de calcul pour y remédier. » Les benchmarks d'IA actuels se concentrent souvent sur des connaissances obscures et ne reflètent pas précisément les capacités qui importent le plus aux utilisateurs, ce qui entraîne une confusion sur le véritable potentiel et les progrès des modèles d'IA.
Mis à jour à 16h06 PT : Une version antérieure de cet article suggérait que Brown faisait référence à des modèles de raisonnement comme o1 dans ses remarques initiales. En fait, il faisait référence à son travail sur l'IA de jeux avant son arrivée chez OpenAI. Nous regrettons l'erreur.




Mind-blowing to think AI reasoning could’ve popped off 20 years ago! 🤯 Noam’s talk makes me wonder what other breakthroughs we’re sleeping on right now.




Mind-blowing to think AI reasoning could’ve been cracked 20 years ago! 🤯 Makes you wonder what else we’re sitting on, just waiting for the right spark. Noam’s talk sounds like a wake-up call for the AI world.




Mind-blowing to think AI reasoning could've been cracked decades ago! 🤯 Makes you wonder what else we’re sitting on that’s just a breakthrough away.




노암 브라운의 통찰은 정말 놀랍습니다! 20년 전에 '추론' AI가 있었다면 세상이 얼마나 달라졌을까요? 🤯 GTC에서 그의 강연은 우리가 얼마나 놓친 것인지 깨닫게 해줬어요. 하지만 늦었다고 생각하지 말고, 다음 큰 것을 놓치지 않도록 합시다!




ノアム・ブラウンの洞察は本当に驚きです!20年前に「推論」AIがあれば、世界はどれだけ違っていたでしょうか?🤯 GTCでの彼の話は、我々がどれだけ見逃してきたかを思い出させてくれました。でも、遅すぎることはないですよね?次に大きなものを見逃さないようにしましょう!




As percepções de Noam Brown são surpreendentes! Imagina se tivéssemos IA de 'raciocínio' há 20 anos? 🤯 A palestra dele no GTC foi um alerta sobre quanto perdemos. Mas, melhor tarde do que nunca, né? Vamos torcer para não perder a próxima grande coisa!












