Líderes de IA Discuten AGI: Fundamentado en la Realidad

En una reciente cena con líderes empresariales en San Francisco, lancé una pregunta que pareció congelar la sala: ¿podría la IA actual alcanzar alguna vez una inteligencia similar a la humana o superior? Es un tema que genera más debate de lo que podrías esperar.
En 2025, los CEOs de tecnología están llenos de optimismo sobre los modelos de lenguaje grandes (LLMs) como los que están detrás de ChatGPT y Gemini. Están convencidos de que estos modelos podrían alcanzar pronto una inteligencia de nivel humano o incluso superhumana. Tomemos, por ejemplo, a Dario Amodei de Anthropic. Ha escrito ensayos sugiriendo que para 2026 podríamos ver una IA más inteligente que los ganadores del Premio Nobel en diversos campos. Mientras tanto, Sam Altman de OpenAI ha sido claro sobre saber cómo construir una IA "superinteligente", prediciendo que podría acelerar enormemente el descubrimiento científico.
Pero no todos están comprando esta visión optimista. Algunos líderes de IA son escépticos sobre la posibilidad de que los LLMs alcancen la AGI, y mucho menos la superinteligencia, sin avances significativos. Estos escépticos, antes callados, ahora están hablando más.
Escepticismo en la comunidad de IA
Tomemos a Thomas Wolf, cofundador y director científico de Hugging Face. En un artículo reciente, calificó partes de la visión de Amodei como "pensamiento ilusorio en el mejor de los casos". Basándose en su doctorado en física estadística y cuántica, Wolf argumenta que los avances a nivel Nobel provienen de hacer nuevas preguntas, no solo de responder las conocidas, algo en lo que la IA es buena pero no excelente para generar nuevas ideas.
"Me encantaría ver este ‘modelo Einstein’ por ahí, pero necesitamos profundizar en los detalles de cómo llegar a él", compartió Wolf en una entrevista con TechCrunch. Escribió su artículo porque sentía que el entusiasmo por la AGI estaba eclipsando la necesidad de una discusión seria sobre cómo lograrla. Wolf ve un futuro donde la IA transforma el mundo, pero no necesariamente uno donde alcance una inteligencia de nivel humano o superinteligencia.
La comunidad de IA a menudo está dividida entre quienes creen en la AGI y quienes no, con estos últimos a veces etiquetados como "anti-tecnología" o simplemente pesimistas. Sin embargo, Wolf se considera un "optimista informado", impulsando el avance de la IA mientras se mantiene anclado en la realidad.
Otras voces en el debate sobre IA
El CEO de Google DeepMind, Demis Hassabis, según informes, dijo a su equipo que la AGI podría estar aún a una década de distancia, señalando las muchas tareas que la IA aún no puede manejar. El científico jefe de IA de Meta, Yann LeCun, también ha expresado dudas sobre que los LLMs logren la AGI, calificando la idea de "absurda" en Nvidia GTC y abogando por nuevas arquitecturas para sustentar la superinteligencia.
Kenneth Stanley, exinvestigador principal en OpenAI y ahora ejecutivo en Lila Sciences, está trabajando en los detalles de construir una IA avanzada. Su startup, que recientemente recaudó 200 millones de dólares, se centra en automatizar la innovación científica. El trabajo de Stanley profundiza en la capacidad de la IA para generar ideas originales y creativas, un campo conocido como apertura.
"En cierto modo, desearía haber escrito el ensayo de Wolf, porque realmente refleja mis sentimientos", dijo Stanley a TechCrunch. Está de acuerdo con Wolf en que ser conocedor no lleva automáticamente a ideas originales.
El papel de la creatividad en la IA
Stanley cree que la creatividad es crucial para la AGI, pero admite que es un desafío difícil. Mientras que optimistas como Amodei destacan los modelos de "razonamiento" de IA como un paso hacia la AGI, Stanley argumenta que la creatividad requiere un tipo diferente de inteligencia. "El razonamiento es casi opuesto a [la creatividad]", explicó. "Los modelos de razonamiento se centran en alcanzar un objetivo específico, lo que puede limitar el tipo de pensamiento oportunista necesario para la creatividad."
Stanley sugiere que para construir una IA verdaderamente inteligente, necesitamos replicar algorítmicamente el gusto humano por nuevas ideas. Mientras que la IA destaca en áreas como las matemáticas y la programación, donde las respuestas son claras, lucha con tareas creativas más subjetivas que no tienen una respuesta "correcta".
"La gente evita [la subjetividad] en la ciencia, la palabra es casi tóxica", señaló Stanley. "Pero no hay nada que nos impida lidiar con la subjetividad [algorítmicamente]. Es solo parte del flujo de datos."
Está alentado por el creciente enfoque en la apertura, con laboratorios de investigación en Lila Sciences, Google DeepMind y la startup de IA Sakana abordando el tema. Stanley ve a más personas hablando sobre la creatividad en la IA, pero cree que aún queda mucho trabajo por delante.
Los realistas de la IA
Wolf y LeCun podrían considerarse los "realistas de la IA": líderes que abordan la AGI y la superinteligencia con preguntas fundamentadas sobre su viabilidad. Su objetivo no es desestimar los avances de la IA, sino generar una conversación más amplia sobre qué está frenando a la IA para alcanzar la AGI y la superinteligencia, y abordar esos desafíos de frente.
Artículo relacionado
La inteligencia artificial revolucionará el pensamiento humano con un avance en el lenguaje universal
La aparición de la Inteligencia Artificial General presenta un potencial transformador para remodelar la comunicación humana mediante la creación de un marco lingüístico universal. A diferencia de los
OpenAI Reafirma sus Raíces Sin Fines de Lucro en una Gran Reestructuración Corporativa
OpenAI permanece firme en su misión sin fines de lucro mientras atraviesa una reestructuración corporativa significativa, equilibrando el crecimiento con su compromiso con el desarrollo ético de la IA
Líderes de IA Discuten AGI: Fundamentado en la Realidad
En una reciente cena con líderes empresariales en San Francisco, lancé una pregunta que pareció congelar la sala: ¿podría la IA actual alcanzar alguna vez una inteligencia similar
comentario (8)
0/200
StevenGonzalez
12 de septiembre de 2025 20:30:43 GMT+02:00
기사 보니까 인공지능이 인간 수준의 지능에 도달할 수 있을지에 대한 토론이 뜨겁네요 🧐 하지만 솔직히 말해서, 우리는 아직도 기본적인 감정 인식도 제대로 못하는 AI를 보고 있는데 AGI는 너무 먼 이야기 아닌가요? ㅋㅋ
0
RichardHarris
2 de agosto de 2025 17:07:14 GMT+02:00
That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.
0
FrankJackson
28 de julio de 2025 03:19:30 GMT+02:00
This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!
0
MarkRoberts
11 de mayo de 2025 00:50:03 GMT+02:00
La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.
0
CharlesRoberts
10 de mayo de 2025 20:06:40 GMT+02:00
A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.
0
StevenNelson
10 de mayo de 2025 15:16:38 GMT+02:00
AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。
0
En una reciente cena con líderes empresariales en San Francisco, lancé una pregunta que pareció congelar la sala: ¿podría la IA actual alcanzar alguna vez una inteligencia similar a la humana o superior? Es un tema que genera más debate de lo que podrías esperar.
En 2025, los CEOs de tecnología están llenos de optimismo sobre los modelos de lenguaje grandes (LLMs) como los que están detrás de ChatGPT y Gemini. Están convencidos de que estos modelos podrían alcanzar pronto una inteligencia de nivel humano o incluso superhumana. Tomemos, por ejemplo, a Dario Amodei de Anthropic. Ha escrito ensayos sugiriendo que para 2026 podríamos ver una IA más inteligente que los ganadores del Premio Nobel en diversos campos. Mientras tanto, Sam Altman de OpenAI ha sido claro sobre saber cómo construir una IA "superinteligente", prediciendo que podría acelerar enormemente el descubrimiento científico.
Pero no todos están comprando esta visión optimista. Algunos líderes de IA son escépticos sobre la posibilidad de que los LLMs alcancen la AGI, y mucho menos la superinteligencia, sin avances significativos. Estos escépticos, antes callados, ahora están hablando más.
Escepticismo en la comunidad de IA
Tomemos a Thomas Wolf, cofundador y director científico de Hugging Face. En un artículo reciente, calificó partes de la visión de Amodei como "pensamiento ilusorio en el mejor de los casos". Basándose en su doctorado en física estadística y cuántica, Wolf argumenta que los avances a nivel Nobel provienen de hacer nuevas preguntas, no solo de responder las conocidas, algo en lo que la IA es buena pero no excelente para generar nuevas ideas.
"Me encantaría ver este ‘modelo Einstein’ por ahí, pero necesitamos profundizar en los detalles de cómo llegar a él", compartió Wolf en una entrevista con TechCrunch. Escribió su artículo porque sentía que el entusiasmo por la AGI estaba eclipsando la necesidad de una discusión seria sobre cómo lograrla. Wolf ve un futuro donde la IA transforma el mundo, pero no necesariamente uno donde alcance una inteligencia de nivel humano o superinteligencia.
La comunidad de IA a menudo está dividida entre quienes creen en la AGI y quienes no, con estos últimos a veces etiquetados como "anti-tecnología" o simplemente pesimistas. Sin embargo, Wolf se considera un "optimista informado", impulsando el avance de la IA mientras se mantiene anclado en la realidad.
Otras voces en el debate sobre IA
El CEO de Google DeepMind, Demis Hassabis, según informes, dijo a su equipo que la AGI podría estar aún a una década de distancia, señalando las muchas tareas que la IA aún no puede manejar. El científico jefe de IA de Meta, Yann LeCun, también ha expresado dudas sobre que los LLMs logren la AGI, calificando la idea de "absurda" en Nvidia GTC y abogando por nuevas arquitecturas para sustentar la superinteligencia.
Kenneth Stanley, exinvestigador principal en OpenAI y ahora ejecutivo en Lila Sciences, está trabajando en los detalles de construir una IA avanzada. Su startup, que recientemente recaudó 200 millones de dólares, se centra en automatizar la innovación científica. El trabajo de Stanley profundiza en la capacidad de la IA para generar ideas originales y creativas, un campo conocido como apertura.
"En cierto modo, desearía haber escrito el ensayo de Wolf, porque realmente refleja mis sentimientos", dijo Stanley a TechCrunch. Está de acuerdo con Wolf en que ser conocedor no lleva automáticamente a ideas originales.
El papel de la creatividad en la IA
Stanley cree que la creatividad es crucial para la AGI, pero admite que es un desafío difícil. Mientras que optimistas como Amodei destacan los modelos de "razonamiento" de IA como un paso hacia la AGI, Stanley argumenta que la creatividad requiere un tipo diferente de inteligencia. "El razonamiento es casi opuesto a [la creatividad]", explicó. "Los modelos de razonamiento se centran en alcanzar un objetivo específico, lo que puede limitar el tipo de pensamiento oportunista necesario para la creatividad."
Stanley sugiere que para construir una IA verdaderamente inteligente, necesitamos replicar algorítmicamente el gusto humano por nuevas ideas. Mientras que la IA destaca en áreas como las matemáticas y la programación, donde las respuestas son claras, lucha con tareas creativas más subjetivas que no tienen una respuesta "correcta".
"La gente evita [la subjetividad] en la ciencia, la palabra es casi tóxica", señaló Stanley. "Pero no hay nada que nos impida lidiar con la subjetividad [algorítmicamente]. Es solo parte del flujo de datos."
Está alentado por el creciente enfoque en la apertura, con laboratorios de investigación en Lila Sciences, Google DeepMind y la startup de IA Sakana abordando el tema. Stanley ve a más personas hablando sobre la creatividad en la IA, pero cree que aún queda mucho trabajo por delante.
Los realistas de la IA
Wolf y LeCun podrían considerarse los "realistas de la IA": líderes que abordan la AGI y la superinteligencia con preguntas fundamentadas sobre su viabilidad. Su objetivo no es desestimar los avances de la IA, sino generar una conversación más amplia sobre qué está frenando a la IA para alcanzar la AGI y la superinteligencia, y abordar esos desafíos de frente.


기사 보니까 인공지능이 인간 수준의 지능에 도달할 수 있을지에 대한 토론이 뜨겁네요 🧐 하지만 솔직히 말해서, 우리는 아직도 기본적인 감정 인식도 제대로 못하는 AI를 보고 있는데 AGI는 너무 먼 이야기 아닌가요? ㅋㅋ




That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.




This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!




La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.




A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.




AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。












