Líderes de IA Discuten AGI: Fundamentado en la Realidad
9 de mayo de 2025
DanielThomas
0

En una reciente cena con líderes empresariales en San Francisco, lancé una pregunta que pareció congelar la sala: ¿podría la IA actual alcanzar alguna vez una inteligencia similar a la humana o incluso superarla? Es un tema que genera más debate de lo que uno podría esperar.
En 2025, los CEOs de la tecnología están llenos de optimismo sobre los modelos de lenguaje grande (LLM) como los que están detrás de ChatGPT y Gemini. Están convencidos de que estos modelos pronto podrían alcanzar la inteligencia de nivel humano o incluso superhumana. Tomemos a Dario Amodei de Anthropic, por ejemplo. Ha escrito ensayos sugiriendo que para 2026, podríamos ver una IA más inteligente que los ganadores del Premio Nobel en varios campos. Mientras tanto, Sam Altman de OpenAI ha sido vocal sobre saber cómo construir una IA "superinteligente", prediciendo que podría acelerar el descubrimiento científico.
Pero no todos están comprando este panorama optimista. Algunos líderes de IA son escépticos sobre que los LLM alcancen la AGI, y mucho menos la superinteligencia, sin avances significativos. Estos escépticos, antes callados, ahora están hablando más.
Escepticismo en la comunidad de IA
Tome a Thomas Wolf, cofundador y jefe de ciencias en Hugging Face. En un artículo reciente, llamó a partes de la visión de Amodei "pensamiento optimista en el mejor de los casos". Basándose en su doctorado en física estadística y cuántica, Wolf argumenta que los avances a nivel Nobel provienen de hacer nuevas preguntas, no solo de responder a las conocidas, algo en lo que la IA es buena pero no excelente para pionerar nuevas ideas.
"Me encantaría ver ese 'modelo Einstein' por ahí, pero necesitamos profundizar en los detalles de cómo llegar allí", compartió Wolf en una entrevista con TechCrunch. Escribió su artículo porque sentía que el entusiasmo alrededor de la AGI estaba eclipsando la necesidad de una discusión seria sobre cómo lograrla. Wolf ve un futuro donde la IA transforma el mundo, pero no necesariamente uno donde alcance la inteligencia de nivel humano o superinteligencia.
La comunidad de IA a menudo está dividida entre quienes creen en la AGI y quienes no, con estos últimos a veces etiquetados como "antitecnología" o simplemente pesimistas. Sin embargo, Wolf se considera un "optimista informado", empujando por el avance de la IA mientras se mantiene arraigado en la realidad.
Otras voces en el debate sobre IA
El CEO de Google DeepMind, Demis Hassabis, supuestamente le dijo a su equipo que la AGI podría estar aún a una década de distancia, señalando las muchas tareas que la IA aún no puede manejar. El científico jefe de IA de Meta, Yann LeCun, también ha expresado dudas sobre que los LLM logren la AGI, llamando a la idea "tonterías" en Nvidia GTC y empujando por nuevas arquitecturas que sustenten la superinteligencia.
Kenneth Stanley, un exinvestigador principal en OpenAI y ahora ejecutivo en Lila Sciences, está trabajando en los detalles de construir una IA avanzada. Su startup, que recientemente recaudó $200 millones, se enfoca en automatizar la innovación científica. El trabajo de Stanley se adentra en la capacidad de la IA para generar ideas originales y creativas, un campo conocido como apertura.
"Me gustaría haber escrito [el ensayo de Wolf], porque realmente refleja mis sentimientos", le dijo Stanley a TechCrunch. Está de acuerdo con Wolf en que ser conocedor no lleva automáticamente a ideas originales.
El papel de la creatividad en la IA
Stanley cree que la creatividad es crucial para la AGI, pero admite que es un hueso duro de roer. Mientras que los optimistas como Amodei destacan los modelos de "razonamiento" de la IA como un paso hacia la AGI, Stanley argumenta que la creatividad requiere un tipo diferente de inteligencia. "El razonamiento es casi antitético a [la creatividad]", explicó. "Los modelos de razonamiento se enfocan en alcanzar un objetivo específico, lo que puede limitar el tipo de pensamiento oportunista necesario para la creatividad".
Stanley sugiere que para construir una IA verdaderamente inteligente, necesitamos replicar el gusto humano por nuevas ideas de manera algorítmica. Mientras que la IA destaca en áreas como matemáticas y programación, donde las respuestas son claras, lucha con tareas más subjetivas y creativas que no tienen una "respuesta correcta".
"La gente se aleja de [la subjetividad] en la ciencia—la palabra es casi tóxica", señaló Stanley. "Pero no hay nada que nos impida lidiar con la subjetividad [algorítmicamente]. Es solo parte del flujo de datos".
Está animado por el creciente enfoque en la apertura, con laboratorios de investigación en Lila Sciences, Google DeepMind y la startup de IA Sakana abordando el tema. Stanley ve a más personas hablando sobre creatividad en la IA, pero cree que aún queda mucho trabajo por delante.
Los realistas de la IA
Wolf y LeCun podrían ser considerados los "realistas de la IA": líderes que abordan la AGI y la superinteligencia con preguntas fundamentadas sobre su viabilidad. Su objetivo no es desestimar los avances de la IA, sino generar una conversación más amplia sobre qué está impidiendo que la IA alcance la AGI y la superinteligencia—y abordar esos desafíos de frente.
Artículo relacionado
OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor
OpenAI has launched a fierce legal counterattack against its co-founder, Elon Musk, and his competing AI company, xAI. In a dramatic escalation of their ongoing feud, OpenAI accuses Musk of waging a "relentless" and "malicious" campaign to undermine the company he helped start.
According to court d
Law of Accelerating Returns Explained: Pathway to AGI Development
In a recent interview, Elon Musk shared his optimistic view on the timeline for the advent of Artificial General Intelligence (AGI), stating it could be as soon as *“3 to 6 years”*. Similarly, Demis Hassabis, CEO of Google's DeepMind, expressed at The Wall Street Journal’s Future of Everything Festi
New AGI Test Proves Challenging, Stumps Majority of AI Models
The Arc Prize Foundation, co-founded by renowned AI researcher François Chollet, recently unveiled a new benchmark called ARC-AGI-2 in a blog post. This test aims to push the boundaries of AI's general intelligence, and so far, it's proving to be a tough nut to crack for most AI models.According to
comentario (0)
0/200






En una reciente cena con líderes empresariales en San Francisco, lancé una pregunta que pareció congelar la sala: ¿podría la IA actual alcanzar alguna vez una inteligencia similar a la humana o incluso superarla? Es un tema que genera más debate de lo que uno podría esperar.
En 2025, los CEOs de la tecnología están llenos de optimismo sobre los modelos de lenguaje grande (LLM) como los que están detrás de ChatGPT y Gemini. Están convencidos de que estos modelos pronto podrían alcanzar la inteligencia de nivel humano o incluso superhumana. Tomemos a Dario Amodei de Anthropic, por ejemplo. Ha escrito ensayos sugiriendo que para 2026, podríamos ver una IA más inteligente que los ganadores del Premio Nobel en varios campos. Mientras tanto, Sam Altman de OpenAI ha sido vocal sobre saber cómo construir una IA "superinteligente", prediciendo que podría acelerar el descubrimiento científico.
Pero no todos están comprando este panorama optimista. Algunos líderes de IA son escépticos sobre que los LLM alcancen la AGI, y mucho menos la superinteligencia, sin avances significativos. Estos escépticos, antes callados, ahora están hablando más.
Escepticismo en la comunidad de IA
Tome a Thomas Wolf, cofundador y jefe de ciencias en Hugging Face. En un artículo reciente, llamó a partes de la visión de Amodei "pensamiento optimista en el mejor de los casos". Basándose en su doctorado en física estadística y cuántica, Wolf argumenta que los avances a nivel Nobel provienen de hacer nuevas preguntas, no solo de responder a las conocidas, algo en lo que la IA es buena pero no excelente para pionerar nuevas ideas.
"Me encantaría ver ese 'modelo Einstein' por ahí, pero necesitamos profundizar en los detalles de cómo llegar allí", compartió Wolf en una entrevista con TechCrunch. Escribió su artículo porque sentía que el entusiasmo alrededor de la AGI estaba eclipsando la necesidad de una discusión seria sobre cómo lograrla. Wolf ve un futuro donde la IA transforma el mundo, pero no necesariamente uno donde alcance la inteligencia de nivel humano o superinteligencia.
La comunidad de IA a menudo está dividida entre quienes creen en la AGI y quienes no, con estos últimos a veces etiquetados como "antitecnología" o simplemente pesimistas. Sin embargo, Wolf se considera un "optimista informado", empujando por el avance de la IA mientras se mantiene arraigado en la realidad.
Otras voces en el debate sobre IA
El CEO de Google DeepMind, Demis Hassabis, supuestamente le dijo a su equipo que la AGI podría estar aún a una década de distancia, señalando las muchas tareas que la IA aún no puede manejar. El científico jefe de IA de Meta, Yann LeCun, también ha expresado dudas sobre que los LLM logren la AGI, llamando a la idea "tonterías" en Nvidia GTC y empujando por nuevas arquitecturas que sustenten la superinteligencia.
Kenneth Stanley, un exinvestigador principal en OpenAI y ahora ejecutivo en Lila Sciences, está trabajando en los detalles de construir una IA avanzada. Su startup, que recientemente recaudó $200 millones, se enfoca en automatizar la innovación científica. El trabajo de Stanley se adentra en la capacidad de la IA para generar ideas originales y creativas, un campo conocido como apertura.
"Me gustaría haber escrito [el ensayo de Wolf], porque realmente refleja mis sentimientos", le dijo Stanley a TechCrunch. Está de acuerdo con Wolf en que ser conocedor no lleva automáticamente a ideas originales.
El papel de la creatividad en la IA
Stanley cree que la creatividad es crucial para la AGI, pero admite que es un hueso duro de roer. Mientras que los optimistas como Amodei destacan los modelos de "razonamiento" de la IA como un paso hacia la AGI, Stanley argumenta que la creatividad requiere un tipo diferente de inteligencia. "El razonamiento es casi antitético a [la creatividad]", explicó. "Los modelos de razonamiento se enfocan en alcanzar un objetivo específico, lo que puede limitar el tipo de pensamiento oportunista necesario para la creatividad".
Stanley sugiere que para construir una IA verdaderamente inteligente, necesitamos replicar el gusto humano por nuevas ideas de manera algorítmica. Mientras que la IA destaca en áreas como matemáticas y programación, donde las respuestas son claras, lucha con tareas más subjetivas y creativas que no tienen una "respuesta correcta".
"La gente se aleja de [la subjetividad] en la ciencia—la palabra es casi tóxica", señaló Stanley. "Pero no hay nada que nos impida lidiar con la subjetividad [algorítmicamente]. Es solo parte del flujo de datos".
Está animado por el creciente enfoque en la apertura, con laboratorios de investigación en Lila Sciences, Google DeepMind y la startup de IA Sakana abordando el tema. Stanley ve a más personas hablando sobre creatividad en la IA, pero cree que aún queda mucho trabajo por delante.
Los realistas de la IA
Wolf y LeCun podrían ser considerados los "realistas de la IA": líderes que abordan la AGI y la superinteligencia con preguntas fundamentadas sobre su viabilidad. Su objetivo no es desestimar los avances de la IA, sino generar una conversación más amplia sobre qué está impidiendo que la IA alcance la AGI y la superinteligencia—y abordar esos desafíos de frente.











