Noam Brown: Los modelos de 'razonamiento' de AI podrían haber surgido hace décadas

Noam Brown, un destacado investigador en razonamiento de IA en OpenAI, compartió recientemente perspectivas en la conferencia GTC de Nvidia en San José, sugiriendo que los avances en la IA de "razonamiento" podrían haberse logrado 20 años antes si se hubieran conocido los métodos y algoritmos adecuados. Explicó: "Hubo varias razones por las que esta dirección de investigación fue descuidada", destacando una brecha en el enfoque que podría haberse llenado mucho antes.
Reflexionando sobre su trayectoria de investigación, Brown señaló una realización crucial: "Noté en el transcurso de mi investigación que, bueno, falta algo. Los humanos dedican mucho tiempo a pensar antes de actuar en una situación difícil. Tal vez esto sería muy útil [en la IA]". Esta observación lo llevó a desarrollar modelos de IA que imitan el razonamiento humano, en lugar de depender únicamente del poder computacional.
Su trabajo en la Universidad Carnegie Mellon, particularmente con la IA Pluribus, que superó a los mejores jugadores de póker humanos, ejemplifica este enfoque. Pluribus fue innovador porque utilizó el razonamiento para resolver problemas, en contraste con los métodos más comunes de fuerza bruta de la época.
En OpenAI, Brown contribuyó al desarrollo de o1, un modelo de IA que utiliza un método conocido como inferencia en tiempo de prueba. Esta técnica permite que la IA "piense" antes de responder, mejorando su precisión y fiabilidad, especialmente en campos como las matemáticas y la ciencia.
Durante la discusión en el panel, Brown abordó el desafío de la investigación académica para competir con la escala de los experimentos realizados por grandes laboratorios de IA como OpenAI. Reconoció la creciente dificultad debido a las crecientes demandas computacionales de los modelos modernos, pero sugirió que los académicos aún podrían contribuir significativamente al enfocarse en áreas que requieren menos poder computacional, como el diseño de arquitecturas de modelos.
Enfatizó el potencial para la colaboración entre la academia y los laboratorios de vanguardia, afirmando: "[H]ay una oportunidad para la colaboración entre los laboratorios de vanguardia [y la academia]. Ciertamente, los laboratorios de vanguardia están revisando publicaciones académicas y considerando cuidadosamente, bueno, ¿esto presenta un argumento convincente de que, si se escalara aún más, sería muy efectivo? Si hay un argumento convincente en el artículo, ya sabes, investigaremos eso en estos laboratorios".
Los comentarios de Brown son particularmente oportunos ya que la administración Trump ha propuesto recortes significativos al financiamiento científico, una medida criticada por expertos en IA, incluyendo a Geoffrey Hinton, quienes argumentan que dichos recortes podrían poner en peligro los esfuerzos de investigación en IA a nivel global.
También señaló el papel crítico de la academia en la mejora de los puntos de referencia de la IA, destacando: "El estado de los puntos de referencia en la IA es realmente malo, y eso no requiere mucho poder computacional para hacerlo". Los puntos de referencia actuales de IA a menudo se centran en conocimientos oscuros y no reflejan con precisión las capacidades que más importan a los usuarios, lo que lleva a confusión sobre el verdadero potencial y progreso de los modelos de IA.
Actualizado a las 4:06 p.m. PT: Una versión anterior de este artículo implicaba que Brown se refería a modelos de razonamiento como o1 en sus comentarios iniciales. De hecho, se refería a su trabajo en IA para juegos antes de su tiempo en OpenAI. Lamentamos el error.
Artículo relacionado
Una organización sin ánimo de lucro aprovecha los agentes de IA para impulsar la recaudación de fondos benéficos
Mientras las grandes corporaciones tecnológicas promueven los "agentes" de IA como potenciadores de la productividad para las empresas, una organización sin ánimo de lucro está demostrando su potencia
Los principales laboratorios de IA advierten de que la humanidad está perdiendo el control sobre la comprensión de los sistemas de IA
En una muestra de unidad sin precedentes, investigadores de OpenAI, Google DeepMind, Anthropic y Meta han dejado de lado sus diferencias competitivas para lanzar una advertencia colectiva sobre el des
ChatGPT integra Google Drive y Dropbox para acceder a los archivos
ChatGPT mejora la productividad con nuevas funciones empresarialesOpenAI ha presentado dos nuevas y potentes funciones que transforman ChatGPT en una completa herramienta de productividad empresaria
comentario (14)
0/200
CharlesYoung
30 de agosto de 2025 22:30:33 GMT+02:00
Increíble pensar que podríamos haber tenido IA 'razonadora' hace 20 años 😳. Me pregunto cómo habría cambiado el mundo tecnológico si esos algoritmos se hubieran descubierto antes... ¿Sería nuestro presente muy diferente? #RetroFuturo
0
PatrickTaylor
8 de agosto de 2025 04:00:59 GMT+02:00
Mind-blowing to think AI reasoning could’ve popped off 20 years ago! 🤯 Noam’s talk makes me wonder what other breakthroughs we’re sleeping on right now.
0
JackMitchell
1 de agosto de 2025 04:48:18 GMT+02:00
Mind-blowing to think AI reasoning could’ve been cracked 20 years ago! 🤯 Makes you wonder what else we’re sitting on, just waiting for the right spark. Noam’s talk sounds like a wake-up call for the AI world.
0
AlbertScott
23 de julio de 2025 10:50:48 GMT+02:00
Mind-blowing to think AI reasoning could've been cracked decades ago! 🤯 Makes you wonder what else we’re sitting on that’s just a breakthrough away.
0
LeviKing
23 de abril de 2025 17:47:27 GMT+02:00
노암 브라운의 통찰은 정말 놀랍습니다! 20년 전에 '추론' AI가 있었다면 세상이 얼마나 달라졌을까요? 🤯 GTC에서 그의 강연은 우리가 얼마나 놓친 것인지 깨닫게 해줬어요. 하지만 늦었다고 생각하지 말고, 다음 큰 것을 놓치지 않도록 합시다!
0
WillGarcía
23 de abril de 2025 09:02:14 GMT+02:00
ノアム・ブラウンの洞察は本当に驚きです!20年前に「推論」AIがあれば、世界はどれだけ違っていたでしょうか?🤯 GTCでの彼の話は、我々がどれだけ見逃してきたかを思い出させてくれました。でも、遅すぎることはないですよね?次に大きなものを見逃さないようにしましょう!
0
Noam Brown, un destacado investigador en razonamiento de IA en OpenAI, compartió recientemente perspectivas en la conferencia GTC de Nvidia en San José, sugiriendo que los avances en la IA de "razonamiento" podrían haberse logrado 20 años antes si se hubieran conocido los métodos y algoritmos adecuados. Explicó: "Hubo varias razones por las que esta dirección de investigación fue descuidada", destacando una brecha en el enfoque que podría haberse llenado mucho antes.
Reflexionando sobre su trayectoria de investigación, Brown señaló una realización crucial: "Noté en el transcurso de mi investigación que, bueno, falta algo. Los humanos dedican mucho tiempo a pensar antes de actuar en una situación difícil. Tal vez esto sería muy útil [en la IA]". Esta observación lo llevó a desarrollar modelos de IA que imitan el razonamiento humano, en lugar de depender únicamente del poder computacional.
Su trabajo en la Universidad Carnegie Mellon, particularmente con la IA Pluribus, que superó a los mejores jugadores de póker humanos, ejemplifica este enfoque. Pluribus fue innovador porque utilizó el razonamiento para resolver problemas, en contraste con los métodos más comunes de fuerza bruta de la época.
En OpenAI, Brown contribuyó al desarrollo de o1, un modelo de IA que utiliza un método conocido como inferencia en tiempo de prueba. Esta técnica permite que la IA "piense" antes de responder, mejorando su precisión y fiabilidad, especialmente en campos como las matemáticas y la ciencia.
Durante la discusión en el panel, Brown abordó el desafío de la investigación académica para competir con la escala de los experimentos realizados por grandes laboratorios de IA como OpenAI. Reconoció la creciente dificultad debido a las crecientes demandas computacionales de los modelos modernos, pero sugirió que los académicos aún podrían contribuir significativamente al enfocarse en áreas que requieren menos poder computacional, como el diseño de arquitecturas de modelos.
Enfatizó el potencial para la colaboración entre la academia y los laboratorios de vanguardia, afirmando: "[H]ay una oportunidad para la colaboración entre los laboratorios de vanguardia [y la academia]. Ciertamente, los laboratorios de vanguardia están revisando publicaciones académicas y considerando cuidadosamente, bueno, ¿esto presenta un argumento convincente de que, si se escalara aún más, sería muy efectivo? Si hay un argumento convincente en el artículo, ya sabes, investigaremos eso en estos laboratorios".
Los comentarios de Brown son particularmente oportunos ya que la administración Trump ha propuesto recortes significativos al financiamiento científico, una medida criticada por expertos en IA, incluyendo a Geoffrey Hinton, quienes argumentan que dichos recortes podrían poner en peligro los esfuerzos de investigación en IA a nivel global.
También señaló el papel crítico de la academia en la mejora de los puntos de referencia de la IA, destacando: "El estado de los puntos de referencia en la IA es realmente malo, y eso no requiere mucho poder computacional para hacerlo". Los puntos de referencia actuales de IA a menudo se centran en conocimientos oscuros y no reflejan con precisión las capacidades que más importan a los usuarios, lo que lleva a confusión sobre el verdadero potencial y progreso de los modelos de IA.
Actualizado a las 4:06 p.m. PT: Una versión anterior de este artículo implicaba que Brown se refería a modelos de razonamiento como o1 en sus comentarios iniciales. De hecho, se refería a su trabajo en IA para juegos antes de su tiempo en OpenAI. Lamentamos el error.




Increíble pensar que podríamos haber tenido IA 'razonadora' hace 20 años 😳. Me pregunto cómo habría cambiado el mundo tecnológico si esos algoritmos se hubieran descubierto antes... ¿Sería nuestro presente muy diferente? #RetroFuturo




Mind-blowing to think AI reasoning could’ve popped off 20 years ago! 🤯 Noam’s talk makes me wonder what other breakthroughs we’re sleeping on right now.




Mind-blowing to think AI reasoning could’ve been cracked 20 years ago! 🤯 Makes you wonder what else we’re sitting on, just waiting for the right spark. Noam’s talk sounds like a wake-up call for the AI world.




Mind-blowing to think AI reasoning could've been cracked decades ago! 🤯 Makes you wonder what else we’re sitting on that’s just a breakthrough away.




노암 브라운의 통찰은 정말 놀랍습니다! 20년 전에 '추론' AI가 있었다면 세상이 얼마나 달라졌을까요? 🤯 GTC에서 그의 강연은 우리가 얼마나 놓친 것인지 깨닫게 해줬어요. 하지만 늦었다고 생각하지 말고, 다음 큰 것을 놓치지 않도록 합시다!




ノアム・ブラウンの洞察は本当に驚きです!20年前に「推論」AIがあれば、世界はどれだけ違っていたでしょうか?🤯 GTCでの彼の話は、我々がどれだけ見逃してきたかを思い出させてくれました。でも、遅すぎることはないですよね?次に大きなものを見逃さないようにしましょう!












