opción
Hogar Noticias El documento de seguridad AGI de Deepmind no puede balancear a los escépticos

El documento de seguridad AGI de Deepmind no puede balancear a los escépticos

Fecha de lanzamiento Fecha de lanzamiento 10 de abril de 2025
Autor Autor KevinBrown
vistas vistas 33

El documento de seguridad AGI de Deepmind no puede balancear a los escépticos

El miércoles, Google Deepmind dejó caer un fuerte papel de 145 páginas que se sumergió en su enfoque para la seguridad AGI. AGI, o inteligencia general artificial, es el tipo de IA que puede abordar cualquier tarea que un humano puede, y es un tema candente en el mundo de la IA. Algunas personas piensan que es solo una fantasía, mientras que otras, como las grandes tomas en Anthrope, creen que está justo alrededor de la curva y podrían causar problemas serios si no tenemos nuestras medidas de seguridad bajo control. El artículo de Deepmind, escrito con la ayuda del cofundador Shane Legg, reconoce que Agi podría aparecer para 2030 y podría conducir a lo que llaman "daños severos". No lo explican exactamente, pero arrojan frases aterradoras como "riesgos existenciales" que podrían "destruir permanentemente la humanidad". "Estamos apostando a ver un AGI excepcional antes de que salga esta década", señalan los autores. "Un AGI excepcional es un sistema que puede igualar las habilidades del 1% superior de los adultos en un montón de tareas no físicas, incluidas cosas difíciles como aprender nuevas habilidades". Desde el principio, el documento compara la forma de DeepMind de manejar el riesgo AGI con cómo lo hacen antrópico y OpenAi. Dice que Anthrope no es tan grande en la "capacitación, monitoreo y seguridad robustas", mientras que OpenAi se trata de "automatizar" un tipo de investigación de seguridad de IA llamada investigación de alineación. El periódico también arroja algo de sombra sobre la idea de la IA superintelligente, IA que es mejor en trabajos que en cualquier humano. (Openai dijo recientemente que están cambiando su enfoque de AGI a la superinteligencia). Sin algunos nuevos avances importantes, los autores de Deepmind no están comprando que los sistemas superinteligentes lleguen pronto, o tal vez nunca. Pero sí piensan que es posible que nuestros métodos actuales puedan conducir a una "mejora recursiva de IA", donde la IA hace su propia investigación de IA para hacer sistemas de IA aún más inteligentes. Y eso, advierten, podría ser súper peligroso. En general, el documento sugiere que necesitamos desarrollar formas de mantener a los malos actores alejados de AGI, comprender mejor lo que están haciendo los sistemas de IA y hacer que los entornos donde la IA funcione sea más segura. Admiten que muchas de estas ideas todavía están en sus primeras etapas y tienen "problemas de investigación abiertos", pero nos instan a no ignorar los problemas de seguridad que podrían estar llegando en nuestro camino. "AGI podría traer beneficios sorprendentes o daños graves", señalan los autores. "Entonces, para construir AGI de la manera correcta, es crucial que los principales desarrolladores de IA planifiquen con anticipación y aborden esos grandes riesgos". Sin embargo, no todos están a bordo con las ideas del periódico. Heidy Khlaaf, la principal científica de IA en el Instituto sin fines de lucro AI Now, dijo a TechCrunch que cree que AGI es un concepto demasiado confuso para ser "evaluado rigurosamente científicamente". Otro investigador de IA, Matthew Guzdial de la Universidad de Alberta, dijo que no está convencido de que la mejora recursiva de IA sea factible en este momento. "La mejora recursiva es en lo que se basan los argumentos de singularidad de inteligencia", dijo Guzdial a TechCrunch, "pero nunca hemos visto ninguna evidencia de que realmente funcione". Sandra Wachter, quien estudia tecnología y regulación en Oxford, señala una preocupación más apremiante: la IA se refuerza con "salidas inexactas". "Con más y más contenido generado por IA en línea y datos reales que se reemplazan, los modelos están aprendiendo de sus propios resultados llenos de inexactitudes o alucinaciones", dijo a TechCrunch. "Dado que los chatbots se usan principalmente para buscar y encontrar la verdad, siempre estamos en riesgo de recibir información falsa que se presenta de una manera muy convincente". Por completo que sea, el artículo de Deepmind probablemente no terminará los debates sobre la probabilidad de que AGI realmente sea, y qué problemas de seguridad de IA necesitan la mayor atención en este momento.
Artículo relacionado
OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor OpenAI has launched a fierce legal counterattack against its co-founder, Elon Musk, and his competing AI company, xAI. In a dramatic escalation of their ongoing feud, OpenAI accuses Musk of waging a "relentless" and "malicious" campaign to undermine the company he helped start. According to court d
Law of Accelerating Returns Explained: Pathway to AGI Development Law of Accelerating Returns Explained: Pathway to AGI Development In a recent interview, Elon Musk shared his optimistic view on the timeline for the advent of Artificial General Intelligence (AGI), stating it could be as soon as *“3 to 6 years”*. Similarly, Demis Hassabis, CEO of Google's DeepMind, expressed at The Wall Street Journal’s Future of Everything Festi
Google Believes AI Can Simplify Electrical Grid's Bureaucracy Google Believes AI Can Simplify Electrical Grid's Bureaucracy The tech world is buzzing with concern over a potential power crisis, fueled by the skyrocketing demand from AI. Yet, amidst this worry, there's a glimmer of hope: a massive amount of new power capacity, measured in terawatts, is just waiting to be connected to the grid. The key? Cutting through the
comentario (45)
0/200
DouglasHarris
DouglasHarris 10 de abril de 2025 08:10:06 GMT

DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!

WilliamYoung
WilliamYoung 10 de abril de 2025 08:10:06 GMT

ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!

SamuelEvans
SamuelEvans 10 de abril de 2025 08:10:06 GMT

딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!

NicholasThomas
NicholasThomas 10 de abril de 2025 08:10:06 GMT

O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!

KennethJones
KennethJones 10 de abril de 2025 08:10:06 GMT

¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!

JoseAdams
JoseAdams 10 de abril de 2025 11:27:37 GMT

DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!

Volver arriba
OR