opción
Hogar
Noticias
Líderes de IA Discuten AGI: Fundamentado en la Realidad

Líderes de IA Discuten AGI: Fundamentado en la Realidad

9 de mayo de 2025
72

Líderes de IA Discuten AGI: Fundamentado en la Realidad

En una reciente cena con líderes empresariales en San Francisco, lancé una pregunta que pareció congelar la sala: ¿podría la IA actual alcanzar alguna vez una inteligencia similar a la humana o incluso superarla? Es un tema que genera más debate de lo que uno podría esperar.

En 2025, los CEOs de la tecnología están llenos de optimismo sobre los modelos de lenguaje grande (LLM) como los que están detrás de ChatGPT y Gemini. Están convencidos de que estos modelos pronto podrían alcanzar la inteligencia de nivel humano o incluso superhumana. Tomemos a Dario Amodei de Anthropic, por ejemplo. Ha escrito ensayos sugiriendo que para 2026, podríamos ver una IA más inteligente que los ganadores del Premio Nobel en varios campos. Mientras tanto, Sam Altman de OpenAI ha sido vocal sobre saber cómo construir una IA "superinteligente", prediciendo que podría acelerar el descubrimiento científico.

Pero no todos están comprando este panorama optimista. Algunos líderes de IA son escépticos sobre que los LLM alcancen la AGI, y mucho menos la superinteligencia, sin avances significativos. Estos escépticos, antes callados, ahora están hablando más.

Escepticismo en la comunidad de IA

Tome a Thomas Wolf, cofundador y jefe de ciencias en Hugging Face. En un artículo reciente, llamó a partes de la visión de Amodei "pensamiento optimista en el mejor de los casos". Basándose en su doctorado en física estadística y cuántica, Wolf argumenta que los avances a nivel Nobel provienen de hacer nuevas preguntas, no solo de responder a las conocidas, algo en lo que la IA es buena pero no excelente para pionerar nuevas ideas.

"Me encantaría ver ese 'modelo Einstein' por ahí, pero necesitamos profundizar en los detalles de cómo llegar allí", compartió Wolf en una entrevista con TechCrunch. Escribió su artículo porque sentía que el entusiasmo alrededor de la AGI estaba eclipsando la necesidad de una discusión seria sobre cómo lograrla. Wolf ve un futuro donde la IA transforma el mundo, pero no necesariamente uno donde alcance la inteligencia de nivel humano o superinteligencia.

La comunidad de IA a menudo está dividida entre quienes creen en la AGI y quienes no, con estos últimos a veces etiquetados como "antitecnología" o simplemente pesimistas. Sin embargo, Wolf se considera un "optimista informado", empujando por el avance de la IA mientras se mantiene arraigado en la realidad.

Otras voces en el debate sobre IA

El CEO de Google DeepMind, Demis Hassabis, supuestamente le dijo a su equipo que la AGI podría estar aún a una década de distancia, señalando las muchas tareas que la IA aún no puede manejar. El científico jefe de IA de Meta, Yann LeCun, también ha expresado dudas sobre que los LLM logren la AGI, llamando a la idea "tonterías" en Nvidia GTC y empujando por nuevas arquitecturas que sustenten la superinteligencia.

Kenneth Stanley, un exinvestigador principal en OpenAI y ahora ejecutivo en Lila Sciences, está trabajando en los detalles de construir una IA avanzada. Su startup, que recientemente recaudó $200 millones, se enfoca en automatizar la innovación científica. El trabajo de Stanley se adentra en la capacidad de la IA para generar ideas originales y creativas, un campo conocido como apertura.

"Me gustaría haber escrito [el ensayo de Wolf], porque realmente refleja mis sentimientos", le dijo Stanley a TechCrunch. Está de acuerdo con Wolf en que ser conocedor no lleva automáticamente a ideas originales.

El papel de la creatividad en la IA

Stanley cree que la creatividad es crucial para la AGI, pero admite que es un hueso duro de roer. Mientras que los optimistas como Amodei destacan los modelos de "razonamiento" de la IA como un paso hacia la AGI, Stanley argumenta que la creatividad requiere un tipo diferente de inteligencia. "El razonamiento es casi antitético a [la creatividad]", explicó. "Los modelos de razonamiento se enfocan en alcanzar un objetivo específico, lo que puede limitar el tipo de pensamiento oportunista necesario para la creatividad".

Stanley sugiere que para construir una IA verdaderamente inteligente, necesitamos replicar el gusto humano por nuevas ideas de manera algorítmica. Mientras que la IA destaca en áreas como matemáticas y programación, donde las respuestas son claras, lucha con tareas más subjetivas y creativas que no tienen una "respuesta correcta".

"La gente se aleja de [la subjetividad] en la ciencia—la palabra es casi tóxica", señaló Stanley. "Pero no hay nada que nos impida lidiar con la subjetividad [algorítmicamente]. Es solo parte del flujo de datos".

Está animado por el creciente enfoque en la apertura, con laboratorios de investigación en Lila Sciences, Google DeepMind y la startup de IA Sakana abordando el tema. Stanley ve a más personas hablando sobre creatividad en la IA, pero cree que aún queda mucho trabajo por delante.

Los realistas de la IA

Wolf y LeCun podrían ser considerados los "realistas de la IA": líderes que abordan la AGI y la superinteligencia con preguntas fundamentadas sobre su viabilidad. Su objetivo no es desestimar los avances de la IA, sino generar una conversación más amplia sobre qué está impidiendo que la IA alcance la AGI y la superinteligencia—y abordar esos desafíos de frente.

Artículo relacionado
AI領導者討論AGI:基於現實 AI領導者討論AGI:基於現實 在最近一次與舊金山商業領袖的晚餐上,我提出了一個似乎讓現場冷場的問題:今天的人工智能是否能達到或超越人類的智能?這是一個比你預期的更能引發爭議的話題。到了2025年,科技CEO們對像ChatGPT和Gemini背後的大型語言模型(LLM)充滿了樂觀情緒。他們相信這些模型很快就能達到人類級別甚至超人類的智能。以Anthropic的Dario Amodei為例,
Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手 Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手 Openai對其聯合創始人Elon Musk及其競爭的AI公司Xai發起了激烈的法律反擊。在他們正在進行的爭執的戲劇性升級中,Openai指責馬斯克發動了一場“無情”和“惡意”運動,破壞了他幫助創辦的公司。根據法院D
加速回報定律解釋了:AGI開發途徑 加速回報定律解釋了:AGI開發途徑 在最近的一次採訪中,埃隆·馬斯克(Elon Musk)分享了他對人工通用情報(AGI)的時間表的樂觀觀點(AGI),並指出它可能是 *“ 3至6年” *。同樣,Google DeepMind的首席執行官Demis Hassabis在《華爾街日報》的《一切事物》上表達了
comentario (5)
0/200
ElijahWalker
ElijahWalker 9 de mayo de 2025 00:00:00 GMT

The AI Leaders discussion on AGI was eye-opening. It grounded the conversation in reality, which is refreshing. Some of the points made were thought-provoking, though I wish there was more depth in certain areas. Overall, it was a solid talk with valuable insights.

StevenNelson
StevenNelson 10 de mayo de 2025 00:00:00 GMT

AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。

RalphSanchez
RalphSanchez 10 de mayo de 2025 00:00:00 GMT

AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.

CharlesRoberts
CharlesRoberts 11 de mayo de 2025 00:00:00 GMT

A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.

MarkRoberts
MarkRoberts 11 de mayo de 2025 00:00:00 GMT

La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.

Volver arriba
OR