El documento de seguridad AGI de Deepmind no puede balancear a los escépticos

El miércoles, Google DeepMind publicó un extenso artículo de 145 páginas que profundiza en su enfoque sobre la seguridad de la AGI. La AGI, o inteligencia general artificial, es el tipo de IA que puede realizar cualquier tarea que un humano pueda, y es un tema candente en el mundo de la IA. Algunos piensan que es solo una fantasía, mientras que otros, como los grandes nombres en Anthropic, creen que está a la vuelta de la esquina y podría causar problemas serios si no ponemos en orden nuestras medidas de seguridad.
El artículo de DeepMind, escrito con la ayuda del cofundador Shane Legg, calcula que la AGI podría aparecer para 2030 y podría conducir a lo que llaman "daños graves". No lo especifican exactamente, pero utilizan frases alarmantes como "riesgos existenciales" que podrían "destruir permanentemente a la humanidad".
"Estamos apostando por ver una AGI Excepcional antes de que termine esta década", señalan los autores. "Una AGI Excepcional es un sistema que puede igualar las habilidades del 1% superior de los adultos en una serie de tareas no físicas, incluyendo cosas complicadas como aprender nuevas habilidades".
Desde el principio, el artículo compara la forma en que DeepMind aborda el riesgo de la AGI con la de Anthropic y OpenAI. Dice que Anthropic no es tan fanático de "entrenamiento robusto, monitoreo y seguridad", mientras que OpenAI se centra en "automatizar" un tipo de investigación de seguridad de IA llamada investigación de alineación.
El artículo también critica la idea de una IA superinteligente — IA que es mejor en los trabajos que cualquier humano. (OpenAI recientemente dijo que están cambiando su enfoque de la AGI a la superinteligencia). Sin grandes avances nuevos, los autores de DeepMind no creen que los sistemas superinteligentes lleguen pronto — o tal vez nunca.
Pero sí piensan que es posible que nuestros métodos actuales puedan llevar a una "mejora recursiva de la IA", donde la IA realiza su propia investigación de IA para crear sistemas de IA aún más inteligentes. Y eso, advierten, podría ser súper peligroso.
En general, el artículo sugiere que necesitamos desarrollar formas de mantener a los malos actores alejados de la AGI, entender mejor qué están haciendo los sistemas de IA y hacer que los entornos donde opera la IA sean más seguros. Admiten que muchas de estas ideas aún están en sus primeras etapas y tienen "problemas de investigación abiertos", pero instan a no ignorar los problemas de seguridad que podrían avecinarse.
"La AGI podría traer beneficios asombrosos o daños graves", señalan los autores. "Por lo tanto, para construir la AGI de la manera correcta, es crucial que los principales desarrolladores de IA planifiquen con antelación y aborden esos grandes riesgos".
Sin embargo, no todos están de acuerdo con las ideas del artículo.
Heidy Khlaaf, la científica jefe de IA en el Instituto AI Now, sin fines de lucro, dijo a TechCrunch que piensa que la AGI es un concepto demasiado difuso para ser "evaluado rigurosamente de manera científica". Otro investigador de IA, Matthew Guzdial de la Universidad de Alberta, dijo que no está convencido de que la mejora recursiva de la IA sea factible en este momento.
"La mejora recursiva es en lo que se basan los argumentos de la singularidad de la inteligencia", dijo Guzdial a TechCrunch, "pero nunca hemos visto ninguna evidencia de que realmente funcione".
Sandra Wachter, que estudia tecnología y regulación en Oxford, señala una preocupación más apremiante: la IA reforzándose con "resultados inexactos".
"Con cada vez más contenido generado por IA en línea y datos reales siendo reemplazados, los modelos están aprendiendo de sus propios resultados que están llenos de inexactitudes o alucinaciones", dijo a TechCrunch. "Dado que los chatbots se usan principalmente para buscar y encontrar la verdad, siempre estamos en riesgo de recibir información falsa que se presenta de una manera muy convincente".
Por exhaustivo que sea, el artículo de DeepMind probablemente no pondrá fin a los debates sobre cuán probable es realmente la AGI — y qué problemas de seguridad de IA necesitan más atención en este momento.
Artículo relacionado
OpenAI Reafirma sus Raíces Sin Fines de Lucro en una Gran Reestructuración Corporativa
OpenAI permanece firme en su misión sin fines de lucro mientras atraviesa una reestructuración corporativa significativa, equilibrando el crecimiento con su compromiso con el desarrollo ético de la IA
Google Lanza Modelo de IA Gemini en Dispositivo para Robots
Google DeepMind Presenta Gemini Robotics On-Device para Control de Robots Sin ConexiónGoogle DeepMind acaba de lanzar una actualización emocionante en el ámbito de la robótica—Gemini Robotics On-Devic
Nuevo Estudio Revela Cuántos Datos Memorizan Realmente los LLMs
¿Cuánto Memorizan Realmente los Modelos de IA? Nueva Investigación Revela Ideas SorprendentesTodos sabemos que los modelos de lenguaje grandes (LLMs) como ChatGPT, Claude y Gemini se entrenan con enor
comentario (47)
0/200
CarlPerez
11 de agosto de 2025 01:01:00 GMT+02:00
This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!
0
ArthurYoung
9 de agosto de 2025 13:00:59 GMT+02:00
DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔
0
GregoryRodriguez
22 de abril de 2025 17:58:08 GMT+02:00
DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.
0
GeorgeJones
20 de abril de 2025 14:35:58 GMT+02:00
DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.
0
CharlesLee
18 de abril de 2025 17:24:35 GMT+02:00
O artigo de segurança de AGI da DeepMind? Honestamente, não me convenceu em nada 🤔. 145 páginas e ainda estou cético. AGI parece ficção científica para mim, mas, ei, se eles conseguirem torná-lo seguro, estou a favor! Talvez na próxima eles tenham algo mais sólido.
0
CarlTaylor
18 de abril de 2025 08:26:53 GMT+02:00
Tentei ler o papel de segurança de AGI do DeepMind, mas é tão denso! 😵💫 Parece que estão tentando nos convencer de que AGI é real, mas ainda não estou convencido. Talvez se tornasse mais digerível, eu ficaria mais convencido. Ainda assim, parabéns pelo esforço!
0
El miércoles, Google DeepMind publicó un extenso artículo de 145 páginas que profundiza en su enfoque sobre la seguridad de la AGI. La AGI, o inteligencia general artificial, es el tipo de IA que puede realizar cualquier tarea que un humano pueda, y es un tema candente en el mundo de la IA. Algunos piensan que es solo una fantasía, mientras que otros, como los grandes nombres en Anthropic, creen que está a la vuelta de la esquina y podría causar problemas serios si no ponemos en orden nuestras medidas de seguridad.
El artículo de DeepMind, escrito con la ayuda del cofundador Shane Legg, calcula que la AGI podría aparecer para 2030 y podría conducir a lo que llaman "daños graves". No lo especifican exactamente, pero utilizan frases alarmantes como "riesgos existenciales" que podrían "destruir permanentemente a la humanidad".
"Estamos apostando por ver una AGI Excepcional antes de que termine esta década", señalan los autores. "Una AGI Excepcional es un sistema que puede igualar las habilidades del 1% superior de los adultos en una serie de tareas no físicas, incluyendo cosas complicadas como aprender nuevas habilidades".
Desde el principio, el artículo compara la forma en que DeepMind aborda el riesgo de la AGI con la de Anthropic y OpenAI. Dice que Anthropic no es tan fanático de "entrenamiento robusto, monitoreo y seguridad", mientras que OpenAI se centra en "automatizar" un tipo de investigación de seguridad de IA llamada investigación de alineación.
El artículo también critica la idea de una IA superinteligente — IA que es mejor en los trabajos que cualquier humano. (OpenAI recientemente dijo que están cambiando su enfoque de la AGI a la superinteligencia). Sin grandes avances nuevos, los autores de DeepMind no creen que los sistemas superinteligentes lleguen pronto — o tal vez nunca.
Pero sí piensan que es posible que nuestros métodos actuales puedan llevar a una "mejora recursiva de la IA", donde la IA realiza su propia investigación de IA para crear sistemas de IA aún más inteligentes. Y eso, advierten, podría ser súper peligroso.
En general, el artículo sugiere que necesitamos desarrollar formas de mantener a los malos actores alejados de la AGI, entender mejor qué están haciendo los sistemas de IA y hacer que los entornos donde opera la IA sean más seguros. Admiten que muchas de estas ideas aún están en sus primeras etapas y tienen "problemas de investigación abiertos", pero instan a no ignorar los problemas de seguridad que podrían avecinarse.
"La AGI podría traer beneficios asombrosos o daños graves", señalan los autores. "Por lo tanto, para construir la AGI de la manera correcta, es crucial que los principales desarrolladores de IA planifiquen con antelación y aborden esos grandes riesgos".
Sin embargo, no todos están de acuerdo con las ideas del artículo.
Heidy Khlaaf, la científica jefe de IA en el Instituto AI Now, sin fines de lucro, dijo a TechCrunch que piensa que la AGI es un concepto demasiado difuso para ser "evaluado rigurosamente de manera científica". Otro investigador de IA, Matthew Guzdial de la Universidad de Alberta, dijo que no está convencido de que la mejora recursiva de la IA sea factible en este momento.
"La mejora recursiva es en lo que se basan los argumentos de la singularidad de la inteligencia", dijo Guzdial a TechCrunch, "pero nunca hemos visto ninguna evidencia de que realmente funcione".
Sandra Wachter, que estudia tecnología y regulación en Oxford, señala una preocupación más apremiante: la IA reforzándose con "resultados inexactos".
"Con cada vez más contenido generado por IA en línea y datos reales siendo reemplazados, los modelos están aprendiendo de sus propios resultados que están llenos de inexactitudes o alucinaciones", dijo a TechCrunch. "Dado que los chatbots se usan principalmente para buscar y encontrar la verdad, siempre estamos en riesgo de recibir información falsa que se presenta de una manera muy convincente".
Por exhaustivo que sea, el artículo de DeepMind probablemente no pondrá fin a los debates sobre cuán probable es realmente la AGI — y qué problemas de seguridad de IA necesitan más atención en este momento.



This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!




DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔




DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.




DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.




O artigo de segurança de AGI da DeepMind? Honestamente, não me convenceu em nada 🤔. 145 páginas e ainda estou cético. AGI parece ficção científica para mim, mas, ei, se eles conseguirem torná-lo seguro, estou a favor! Talvez na próxima eles tenham algo mais sólido.




Tentei ler o papel de segurança de AGI do DeepMind, mas é tão denso! 😵💫 Parece que estão tentando nos convencer de que AGI é real, mas ainda não estou convencido. Talvez se tornasse mais digerível, eu ficaria mais convencido. Ainda assim, parabéns pelo esforço!












