Noam Brown: les modèles de «raisonnement» AI auraient pu émerger il y a des décennies

Noam Brown, un chercheur de premier plan en raisonnement IA chez OpenAI, a récemment partagé des idées lors de la conférence GTC de Nvidia à San Jose, suggérant que des avancées dans l'IA de "raisonnement" auraient pu être réalisées 20 ans plus tôt si les bonnes méthodes et algorithmes avaient été connus. Il a expliqué : « Il y avait diverses raisons pour lesquelles cette direction de recherche a été négligée », mettant en lumière un écart dans l'approche qui aurait pu être comblé beaucoup plus tôt.
En réfléchissant à son parcours de recherche, Brown a noté une prise de conscience cruciale : « J'ai remarqué au cours de mes recherches que, d'accord, il manque quelque chose. Les humains passent beaucoup de temps à réfléchir avant d'agir dans une situation difficile. Peut-être que cela serait très utile [en IA]. » Cette observation l'a conduit à développer des modèles d'IA qui imitent le raisonnement humain, plutôt que de s'appuyer uniquement sur la puissance de calcul.
Son travail à l'Université Carnegie Mellon, en particulier avec l'IA Pluribus, qui a surpassé les meilleurs joueurs de poker humains, illustre cette approche. Pluribus était révolutionnaire car il utilisait le raisonnement pour résoudre des problèmes, contrairement aux méthodes de force brute plus courantes à l'époque.
Chez OpenAI, Brown a contribué au développement de o1, un modèle d'IA qui utilise une méthode connue sous le nom d'inférence au moment du test. Cette technique permet à l'IA de "penser" avant de répondre, améliorant sa précision et sa fiabilité, en particulier dans des domaines comme les mathématiques et les sciences.
Lors de la discussion en panel, Brown a abordé le défi de la recherche académique face à l'échelle des expériences menées par de grands laboratoires d'IA comme OpenAI. Il a reconnu la difficulté croissante en raison des demandes computationnelles croissantes des modèles modernes, mais a suggéré que les universitaires pourraient encore contribuer de manière significative en se concentrant sur des domaines nécessitant moins de puissance de calcul, comme la conception d'architectures de modèles.
Il a souligné le potentiel de collaboration entre le milieu académique et les laboratoires de pointe, déclarant : « [I]l y a une opportunité de collaboration entre les laboratoires de pointe [et le milieu académique]. Assurément, les laboratoires de pointe examinent les publications académiques et réfléchissent soigneusement à, d'accord, est-ce que cela présente un argument convaincant que, si cela était amplifié davantage, cela serait très efficace. S'il y a cet argument convaincant dans l'article, eh bien, nous l'explorerons dans ces laboratoires. »
Les commentaires de Brown sont particulièrement opportuns alors que l'administration Trump a proposé des coupes significatives dans le financement scientifique, une décision critiquée par des experts en IA, y compris Geoffrey Hinton, qui soutiennent que de telles coupes pourraient compromettre les efforts de recherche en IA à l'échelle mondiale.
Il a également souligné le rôle crucial du milieu académique dans l'amélioration des benchmarks d'IA, notant : « L'état des benchmarks en IA est vraiment mauvais, et cela ne nécessite pas beaucoup de calcul pour y remédier. » Les benchmarks d'IA actuels se concentrent souvent sur des connaissances obscures et ne reflètent pas précisément les capacités qui importent le plus aux utilisateurs, ce qui entraîne une confusion sur le véritable potentiel et les progrès des modèles d'IA.
Mis à jour à 16h06 PT : Une version antérieure de cet article suggérait que Brown faisait référence à des modèles de raisonnement comme o1 dans ses remarques initiales. En fait, il faisait référence à son travail sur l'IA de jeux avant son arrivée chez OpenAI. Nous regrettons l'erreur.
Article connexe
Un organisme à but non lucratif s'appuie sur des agents d'intelligence artificielle pour stimuler la collecte de fonds à des fins caritatives
Alors que les grandes entreprises technologiques promeuvent les "agents" d'IA comme des stimulants de la productivité pour les entreprises, une organisation à but non lucratif démontre leur potentiel
Les plus grands laboratoires d'IA avertissent que l'humanité est en train de perdre le contrôle de la compréhension des systèmes d'IA
Dans une démonstration d'unité sans précédent, des chercheurs d'OpenAI, de Google DeepMind, d'Anthropic et de Meta ont mis de côté leurs divergences pour lancer un avertissement collectif sur le dével
ChatGPT ajoute l'intégration de Google Drive et Dropbox pour l'accès aux fichiers
ChatGPT améliore la productivité avec de nouvelles fonctionnalités d'entrepriseOpenAI a dévoilé deux nouvelles fonctionnalités puissantes qui transforment ChatGPT en un outil de productivité complet
commentaires (14)
0/200
CharlesYoung
30 août 2025 22:30:33 UTC+02:00
Increíble pensar que podríamos haber tenido IA 'razonadora' hace 20 años 😳. Me pregunto cómo habría cambiado el mundo tecnológico si esos algoritmos se hubieran descubierto antes... ¿Sería nuestro presente muy diferente? #RetroFuturo
0
PatrickTaylor
8 août 2025 04:00:59 UTC+02:00
Mind-blowing to think AI reasoning could’ve popped off 20 years ago! 🤯 Noam’s talk makes me wonder what other breakthroughs we’re sleeping on right now.
0
JackMitchell
1 août 2025 04:48:18 UTC+02:00
Mind-blowing to think AI reasoning could’ve been cracked 20 years ago! 🤯 Makes you wonder what else we’re sitting on, just waiting for the right spark. Noam’s talk sounds like a wake-up call for the AI world.
0
AlbertScott
23 juillet 2025 10:50:48 UTC+02:00
Mind-blowing to think AI reasoning could've been cracked decades ago! 🤯 Makes you wonder what else we’re sitting on that’s just a breakthrough away.
0
LeviKing
23 avril 2025 17:47:27 UTC+02:00
노암 브라운의 통찰은 정말 놀랍습니다! 20년 전에 '추론' AI가 있었다면 세상이 얼마나 달라졌을까요? 🤯 GTC에서 그의 강연은 우리가 얼마나 놓친 것인지 깨닫게 해줬어요. 하지만 늦었다고 생각하지 말고, 다음 큰 것을 놓치지 않도록 합시다!
0
WillGarcía
23 avril 2025 09:02:14 UTC+02:00
ノアム・ブラウンの洞察は本当に驚きです!20年前に「推論」AIがあれば、世界はどれだけ違っていたでしょうか?🤯 GTCでの彼の話は、我々がどれだけ見逃してきたかを思い出させてくれました。でも、遅すぎることはないですよね?次に大きなものを見逃さないようにしましょう!
0
Noam Brown, un chercheur de premier plan en raisonnement IA chez OpenAI, a récemment partagé des idées lors de la conférence GTC de Nvidia à San Jose, suggérant que des avancées dans l'IA de "raisonnement" auraient pu être réalisées 20 ans plus tôt si les bonnes méthodes et algorithmes avaient été connus. Il a expliqué : « Il y avait diverses raisons pour lesquelles cette direction de recherche a été négligée », mettant en lumière un écart dans l'approche qui aurait pu être comblé beaucoup plus tôt.
En réfléchissant à son parcours de recherche, Brown a noté une prise de conscience cruciale : « J'ai remarqué au cours de mes recherches que, d'accord, il manque quelque chose. Les humains passent beaucoup de temps à réfléchir avant d'agir dans une situation difficile. Peut-être que cela serait très utile [en IA]. » Cette observation l'a conduit à développer des modèles d'IA qui imitent le raisonnement humain, plutôt que de s'appuyer uniquement sur la puissance de calcul.
Son travail à l'Université Carnegie Mellon, en particulier avec l'IA Pluribus, qui a surpassé les meilleurs joueurs de poker humains, illustre cette approche. Pluribus était révolutionnaire car il utilisait le raisonnement pour résoudre des problèmes, contrairement aux méthodes de force brute plus courantes à l'époque.
Chez OpenAI, Brown a contribué au développement de o1, un modèle d'IA qui utilise une méthode connue sous le nom d'inférence au moment du test. Cette technique permet à l'IA de "penser" avant de répondre, améliorant sa précision et sa fiabilité, en particulier dans des domaines comme les mathématiques et les sciences.
Lors de la discussion en panel, Brown a abordé le défi de la recherche académique face à l'échelle des expériences menées par de grands laboratoires d'IA comme OpenAI. Il a reconnu la difficulté croissante en raison des demandes computationnelles croissantes des modèles modernes, mais a suggéré que les universitaires pourraient encore contribuer de manière significative en se concentrant sur des domaines nécessitant moins de puissance de calcul, comme la conception d'architectures de modèles.
Il a souligné le potentiel de collaboration entre le milieu académique et les laboratoires de pointe, déclarant : « [I]l y a une opportunité de collaboration entre les laboratoires de pointe [et le milieu académique]. Assurément, les laboratoires de pointe examinent les publications académiques et réfléchissent soigneusement à, d'accord, est-ce que cela présente un argument convaincant que, si cela était amplifié davantage, cela serait très efficace. S'il y a cet argument convaincant dans l'article, eh bien, nous l'explorerons dans ces laboratoires. »
Les commentaires de Brown sont particulièrement opportuns alors que l'administration Trump a proposé des coupes significatives dans le financement scientifique, une décision critiquée par des experts en IA, y compris Geoffrey Hinton, qui soutiennent que de telles coupes pourraient compromettre les efforts de recherche en IA à l'échelle mondiale.
Il a également souligné le rôle crucial du milieu académique dans l'amélioration des benchmarks d'IA, notant : « L'état des benchmarks en IA est vraiment mauvais, et cela ne nécessite pas beaucoup de calcul pour y remédier. » Les benchmarks d'IA actuels se concentrent souvent sur des connaissances obscures et ne reflètent pas précisément les capacités qui importent le plus aux utilisateurs, ce qui entraîne une confusion sur le véritable potentiel et les progrès des modèles d'IA.
Mis à jour à 16h06 PT : Une version antérieure de cet article suggérait que Brown faisait référence à des modèles de raisonnement comme o1 dans ses remarques initiales. En fait, il faisait référence à son travail sur l'IA de jeux avant son arrivée chez OpenAI. Nous regrettons l'erreur.




Increíble pensar que podríamos haber tenido IA 'razonadora' hace 20 años 😳. Me pregunto cómo habría cambiado el mundo tecnológico si esos algoritmos se hubieran descubierto antes... ¿Sería nuestro presente muy diferente? #RetroFuturo




Mind-blowing to think AI reasoning could’ve popped off 20 years ago! 🤯 Noam’s talk makes me wonder what other breakthroughs we’re sleeping on right now.




Mind-blowing to think AI reasoning could’ve been cracked 20 years ago! 🤯 Makes you wonder what else we’re sitting on, just waiting for the right spark. Noam’s talk sounds like a wake-up call for the AI world.




Mind-blowing to think AI reasoning could've been cracked decades ago! 🤯 Makes you wonder what else we’re sitting on that’s just a breakthrough away.




노암 브라운의 통찰은 정말 놀랍습니다! 20년 전에 '추론' AI가 있었다면 세상이 얼마나 달라졌을까요? 🤯 GTC에서 그의 강연은 우리가 얼마나 놓친 것인지 깨닫게 해줬어요. 하지만 늦었다고 생각하지 말고, 다음 큰 것을 놓치지 않도록 합시다!




ノアム・ブラウンの洞察は本当に驚きです!20年前に「推論」AIがあれば、世界はどれだけ違っていたでしょうか?🤯 GTCでの彼の話は、我々がどれだけ見逃してきたかを思い出させてくれました。でも、遅すぎることはないですよね?次に大きなものを見逃さないようにしましょう!












