DeepMind的AGI安全紙無法解決懷疑論者

週三,Google DeepMind 發布了一份厚達145頁的論文,深入探討其對AGI安全的做法。AGI,即人工通用智能,是能執行人類任何任務的AI,在AI領域備受關注。有些人認為這只是幻想,而Anthropic等大廠則認為AGI即將到來,若安全措施不到位,可能引發嚴重問題。
DeepMind的論文由共同創辦人Shane Legg等人撰寫,預測AGI可能於2030年前出現,並可能導致所謂的「嚴重危害」。他們未明確說明,但提及「存在風險」等可怕詞語,可能「永久摧毀人類」。
作者指出:「我們預期在本十年結束前看到卓越AGI。」「卓越AGI是指在多項非物理任務上能媲美前1%成人技能的系統,包括學習新技能等棘手任務。」
論文開篇比較了DeepMind、Anthropic和OpenAI處理AGI風險的方式,稱Anthropic不夠重視「穩健訓練、監控和安全」,而OpenAI則專注於「自動化」一種稱為對齊研究的AI安全研究。
論文還對超智能AI——比任何人類更擅長工作的AI——提出質疑。(OpenAI最近表示將焦點從AGI轉向超智能。)DeepMind作者認為,除非有重大突破,超智能系統短期內,甚至永遠不會出現。
但他們認為,當前方法可能導致「遞歸AI改進」,即AI自行進行AI研究,創造更智能的系統。他們警告,這可能極其危險。
總體而言,論文建議需防止不良行為者接觸AGI、更好地理解AI系統運作,並確保AI運作環境更安全。他們承認許多想法仍處早期,存在「開放研究問題」,但敦促不要忽視即將來臨的安全問題。
作者指出:「AGI可能帶來巨大益處或嚴重危害。因此,為正確開發AGI,頂尖AI開發者需提前計劃,應對重大風險。」
然而,並非所有人都認同論文觀點。
非營利組織AI Now Institute首席AI科學家Heidy Khlaaf對TechCrunch表示,她認為AGI概念太模糊,難以「嚴謹科學評估」。另一位AI研究者、阿爾伯塔大學的Matthew Guzdial表示,他不相信遞歸AI改進目前可行。
Guzdial對TechCrunch說:「遞歸改進是智能奇點論的基礎,但我們從未見過實際運作的證據。」
牛津大學研究科技與監管的Sandra Wachter指出更迫切的擔憂:AI因「不準確輸出」自我強化。
她對TechCrunch說:「隨著線上AI生成內容增加,真實數據被取代,模型從自身充滿不準確或幻覺的輸出中學習。由於聊天機器人主要用於搜索和尋找真相,我們總有被餵送令人信服的錯誤資訊的風險。」
儘管DeepMind的論文詳盡,但可能無法終結關於AGI可能性及當前最需關注的AI安全問題的爭論。
相關文章
AGI 將以突破性的通用語言革新人類思想
人工智能的出現帶來了轉變性的潛力,通過創建一個通用的語言框架來重塑人類的溝通方式。有別於專為特殊任務所設計的狹隘人工智慧系統,AGI 擁有跨越多領域的類人學習能力,使其能夠分析語言模式、文化背景與認知過程。這種獨特的組合可以建立一個統一的溝通系統,在加強人類認知本身的同時,也能消除文化隔閡。瞭解 AGI 的語言能力人工智慧代表著特定任務人工智慧系統的根本轉變。憑藉其抽象推理和跨學科知識轉移的
OpenAI重申非營利根基於重大企業改造
OpenAI在進行重大企業重組時,堅定不移地秉持其非營利使命,平衡成長與對倫理AI發展的承諾。執行長Sam Altman概述了公司的願景,強調雖然財務策略正在演變,OpenAI對推進人工通用智能(AGI)以造福全球的奉獻依然堅定不移。Altman在公開聲明中指出:「OpenAI的運作方式與傳統公司不同,且將永遠如此。」這為一家在資助變革性技術與堅持道德原則之間尋求平衡的公司定下了基調。回顧Open
Google推出設備端Gemini AI模型用於機器人
Google DeepMind揭曉Gemini Robotics On-Device以實現離線機器人控制Google DeepMind剛剛在機器人領域發布了一項令人振奮的更新—Gemini Robotics On-Device,這是一款新型語言模型,讓機器人能夠在無需網路連接的情況下執行任務。這基於他們早先於三月發布的Gemini Robotics模型,但關鍵升級在於:本地處理。 開發者現在可以通
評論 (50)
0/200
JimmyGarcia
2025-09-26 14:30:34
Mais um artigo gigante sobre segurança de AGI... Será que alguém realmente lê essas 145 páginas? 🤨 Parece que o DeepMind tá mais preocupado em mostrar volume do que convencer os críticos. Cadê os resultados práticos?
0
DouglasMitchell
2025-09-04 14:30:32
Este artículo sobre seguridad en AGI es interesante, pero me pregunto si realmente podemos confiar en las grandes empresas tecnológicas para autorregularse. 🤨 DeepMind habla de seguridad, pero al final todo se reduce a ganancias y competencia. ¿Será solo otro documento para calmar a los reguladores?
0
DanielPerez
2025-08-28 07:01:33
This paper's a beast, but I'm not sold on DeepMind's AGI safety promises. Feels like they're hyping it up without tackling the real ethical mess. Anyone else think it's just fancy PR? 🤔
0
CarlPerez
2025-08-11 07:01:00
This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!
0
ArthurYoung
2025-08-09 19:00:59
DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔
0
GregoryRodriguez
2025-04-22 23:58:08
DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.
0
週三,Google DeepMind 發布了一份厚達145頁的論文,深入探討其對AGI安全的做法。AGI,即人工通用智能,是能執行人類任何任務的AI,在AI領域備受關注。有些人認為這只是幻想,而Anthropic等大廠則認為AGI即將到來,若安全措施不到位,可能引發嚴重問題。
DeepMind的論文由共同創辦人Shane Legg等人撰寫,預測AGI可能於2030年前出現,並可能導致所謂的「嚴重危害」。他們未明確說明,但提及「存在風險」等可怕詞語,可能「永久摧毀人類」。
作者指出:「我們預期在本十年結束前看到卓越AGI。」「卓越AGI是指在多項非物理任務上能媲美前1%成人技能的系統,包括學習新技能等棘手任務。」
論文開篇比較了DeepMind、Anthropic和OpenAI處理AGI風險的方式,稱Anthropic不夠重視「穩健訓練、監控和安全」,而OpenAI則專注於「自動化」一種稱為對齊研究的AI安全研究。
論文還對超智能AI——比任何人類更擅長工作的AI——提出質疑。(OpenAI最近表示將焦點從AGI轉向超智能。)DeepMind作者認為,除非有重大突破,超智能系統短期內,甚至永遠不會出現。
但他們認為,當前方法可能導致「遞歸AI改進」,即AI自行進行AI研究,創造更智能的系統。他們警告,這可能極其危險。
總體而言,論文建議需防止不良行為者接觸AGI、更好地理解AI系統運作,並確保AI運作環境更安全。他們承認許多想法仍處早期,存在「開放研究問題」,但敦促不要忽視即將來臨的安全問題。
作者指出:「AGI可能帶來巨大益處或嚴重危害。因此,為正確開發AGI,頂尖AI開發者需提前計劃,應對重大風險。」
然而,並非所有人都認同論文觀點。
非營利組織AI Now Institute首席AI科學家Heidy Khlaaf對TechCrunch表示,她認為AGI概念太模糊,難以「嚴謹科學評估」。另一位AI研究者、阿爾伯塔大學的Matthew Guzdial表示,他不相信遞歸AI改進目前可行。
Guzdial對TechCrunch說:「遞歸改進是智能奇點論的基礎,但我們從未見過實際運作的證據。」
牛津大學研究科技與監管的Sandra Wachter指出更迫切的擔憂:AI因「不準確輸出」自我強化。
她對TechCrunch說:「隨著線上AI生成內容增加,真實數據被取代,模型從自身充滿不準確或幻覺的輸出中學習。由於聊天機器人主要用於搜索和尋找真相,我們總有被餵送令人信服的錯誤資訊的風險。」
儘管DeepMind的論文詳盡,但可能無法終結關於AGI可能性及當前最需關注的AI安全問題的爭論。


Mais um artigo gigante sobre segurança de AGI... Será que alguém realmente lê essas 145 páginas? 🤨 Parece que o DeepMind tá mais preocupado em mostrar volume do que convencer os críticos. Cadê os resultados práticos?




Este artículo sobre seguridad en AGI es interesante, pero me pregunto si realmente podemos confiar en las grandes empresas tecnológicas para autorregularse. 🤨 DeepMind habla de seguridad, pero al final todo se reduce a ganancias y competencia. ¿Será solo otro documento para calmar a los reguladores?




This paper's a beast, but I'm not sold on DeepMind's AGI safety promises. Feels like they're hyping it up without tackling the real ethical mess. Anyone else think it's just fancy PR? 🤔




This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!




DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔




DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.












