DeepMind的AGI安全紙無法解決懷疑論者

週三,Google DeepMind放棄了一張長達145頁的紙,深入研究了他們的AGI安全方法。 AGI或人工通用智能是可以解決人類可以解決任何任務的AI,這是AI世界中的熱門話題。有些人認為這只是一個幻想,而另一些人則像擬人化的大鏡頭一樣,認為它就在彎道周圍,如果我們沒有檢查安全措施,可能會造成嚴重的麻煩。 DeepMind的論文在聯合創始人Shane Legg的幫助下寫下,認為Agi可能會到2030年出現,並可能導致他們所謂的“嚴重傷害”。他們並沒有完全闡明它,但是他們圍繞著可怕的短語,例如“生存風險”,這些風險可能會永久摧毀人類。作者指出:“我們押注在這十年之前看到一個出色的AGI。” “一個傑出的AGI是一個可以在一系列非物理任務中與前1%的成年人的技能相匹配的系統,包括棘手的事情,例如學習新技能。”從一開始,該論文將DeepMind處理AGI風險的方式與人類和OpenAi的做法進行了比較。它說,擬人化在“強大的培訓,監測和安全性”方面並不那麼大,而Openai則是“自動化”一種稱為Alignment Research的AI安全研究。該論文還對超級智能AI的想法(AI)的想法造成了一些陰影,而AI在工作方面比任何人都更好。 (Openai最近表示,他們將重點從AGI轉移到了超級智能。)如果沒有一些重大的新突破,DeepMind的作者並沒有購買超級智能係統即將到來的任何時間,或者也許有史以來。但是他們確實認為我們當前的方法可能會導致“遞歸AI的改進”,在這種方法中,AI進行了自己的AI研究以使甚至更智能的AI系統。他們警告說,這可能是超級危險的。總體而言,本文建議我們需要開發方法,以使壞演員遠離AGI,更好地了解AI系統的工作,並使AI更安全的環境更加安全。他們承認,許多這些想法仍處於早期階段,並存在“開放研究問題”,但他們敦促我們不要忽略可能正在出現的安全問題。作者指出:“ AGI可以帶來驚人的好處或嚴重傷害。” “因此,要以正確的方式建立AGI,對於AI頂級開發人員來說,提前計劃並應對這些大風險至關重要。”不過,並不是每個人都掌握本文的想法。非營利性人工智能現任研究所的首席AI科學家Heidy Khlaaf告訴TechCrunch,她認為Agi太模糊了一個概念,無法“對科學進行嚴格的評估”。另一位AI研究人員,來自艾伯塔大學的Matthew Guzdial說,他不相信遞歸AI的改進是可行的。 Guzdial告訴TechCrunch:“遞歸改進是情報上的奇異性論點所基於的,但我們從未見過任何證據表明它實際上有效。”在牛津大學進行技術和法規的桑德拉·沃克特(Sandra Wachter)指出,更加緊迫的擔憂:AI以“不准確的產出”加強了自己。她告訴TechCrunch:“隨著越來越多的AI生成的內容在線替換了實際數據,模型正在從自己的輸出中學習,這些輸出充滿了不准確或幻覺。” “由於聊天機器人主要用於搜索和尋找真相,因此我們總是有被以非常令人信服的方式呈現的虛假信息的風險。”儘管如此,DeepMind的論文可能不會結束有關AGI的真正可能性的辯論,而AI安全問題現在需要最大的關注。
相關文章
AI領導者討論AGI:基於現實
在最近一次與舊金山商業領袖的晚餐上,我提出了一個似乎讓現場冷場的問題:今天的人工智能是否能達到或超越人類的智能?這是一個比你預期的更能引發爭議的話題。到了2025年,科技CEO們對像ChatGPT和Gemini背後的大型語言模型(LLM)充滿了樂觀情緒。他們相信這些模型很快就能達到人類級別甚至超人類的智能。以Anthropic的Dario Amodei為例,
Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手
Openai對其聯合創始人Elon Musk及其競爭的AI公司Xai發起了激烈的法律反擊。在他們正在進行的爭執的戲劇性升級中,Openai指責馬斯克發動了一場“無情”和“惡意”運動,破壞了他幫助創辦的公司。根據法院D
加速回報定律解釋了:AGI開發途徑
在最近的一次採訪中,埃隆·馬斯克(Elon Musk)分享了他對人工通用情報(AGI)的時間表的樂觀觀點(AGI),並指出它可能是 *“ 3至6年” *。同樣,Google DeepMind的首席執行官Demis Hassabis在《華爾街日報》的《一切事物》上表達了
評論 (45)
0/200
DouglasHarris
2025-04-10 08:00:00
DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!
0
WilliamYoung
2025-04-10 08:00:00
ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!
0
SamuelEvans
2025-04-10 08:00:00
딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!
0
NicholasThomas
2025-04-10 08:00:00
O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!
0
KennethJones
2025-04-10 08:00:00
¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!
0
JoseAdams
2025-04-10 08:00:00
DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!
0



DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!




ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!




딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!




O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!




¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!




DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!












