選項
首頁 消息 DeepMind的AGI安全紙無法解決懷疑論者

DeepMind的AGI安全紙無法解決懷疑論者

發布日期 發布日期 2025年04月10日
作者 作者 KevinBrown
視圖 視圖 33

DeepMind的AGI安全紙無法解決懷疑論者

週三,Google DeepMind放棄了一張長達145頁的紙,深入研究了他們的AGI安全方法。 AGI或人工通用智能是可以解決人類可以解決任何任務的AI,這是AI世界中的熱門話題。有些人認為這只是一個幻想,而另一些人則像擬人化的大鏡頭一樣,認為它就在彎道周圍,如果我們沒有檢查安全措施,可能會造成嚴重的麻煩。 DeepMind的論文在聯合創始人Shane Legg的幫助下寫下,認為Agi可能會到2030年出現,並可能導致他們所謂的“嚴重傷害”。他們並沒有完全闡明它,但是他們圍繞著可怕的短語,例如“生存風險”,這些風險可能會永久摧毀人類。作者指出:“我們押注在這十年之前看到一個出色的AGI。” “一個傑出的AGI是一個可以在一系列非物理任務中與前1%的成年人的技能相匹配的系統,包括棘手的事情,例如學習新技能。”從一開始,該論文將DeepMind處理AGI風險的方式與人類和OpenAi的做法進行了比較。它說,擬人化在“強大的培訓,監測和安全性”方面並不那麼大,而Openai則是“自動化”一種稱為Alignment Research的AI安全研究。該論文還對超級智能AI的想法(AI)的想法造成了一些陰影,而AI在工作方面比任何人都更好。 (Openai最近表示,他們將重點從AGI轉移到了超級智能。)如果沒有一些重大的新突破,DeepMind的作者並沒有購買超級智能係統即將到來的任何時間,或者也許有史以來。但是他們確實認為我們當前的方法可能會導致“遞歸AI的改進”,在這種方法中,AI進行了自己的AI研究以使甚至更智能的AI系統。他們警告說,這可能是超級危險的。總體而言,本文建議我們需要開發方法,以使壞演員遠離AGI,更好地了解AI系統的工作,並使AI更安全的環境更加安全。他們承認,許多這些想法仍處於早期階段,並存在“開放研究問題”,但他們敦促我們不要忽略可能正在出現的安全問題。作者指出:“ AGI可以帶來驚人的好處或嚴重傷害。” “因此,要以正確的方式建立AGI,對於AI頂級開發人員來說,提前計劃並應對這些大風險至關重要。”不過,並不是每個人都掌握本文的想法。非營利性人工智能現任研究所的首席AI科學家Heidy Khlaaf告訴TechCrunch,她認為Agi太模糊了一個概念,無法“對科學進行嚴格的評估”。另一位AI研究人員,來自艾伯塔大學的Matthew Guzdial說,他不相信遞歸AI的改進是可行的。 Guzdial告訴TechCrunch:“遞歸改進是情報上的奇異性論點所基於的,但我們從未見過任何證據表明它實際上有效。”在牛津大學進行技術和法規的桑德拉·沃克特(Sandra Wachter)指出,更加緊迫的擔憂:AI以“不准確的產出”加強了自己。她告訴TechCrunch:“隨著越來越多的AI生成的內容在線替換了實際數據,模型正在從自己的輸出中學習,這些輸出充滿了不准確或幻覺。” “由於聊天機器人主要用於搜索和尋找真相,因此我們總是有被以非常令人信服的方式呈現的虛假信息的風險。”儘管如此,DeepMind的論文可能不會結束有關AGI的真正可能性的辯論,而AI安全問題現在需要最大的關注。
相關文章
Openai स्ट्राइक्स बैक: एआई प्रतियोगी को कम करने के लिए कथित प्रयासों के लिए एलोन मस्क ने कहा Openai स्ट्राइक्स बैक: एआई प्रतियोगी को कम करने के लिए कथित प्रयासों के लिए एलोन मस्क ने कहा Openai ने अपने सह-संस्थापक, एलोन मस्क और उनकी प्रतिस्पर्धी AI कंपनी, XAI के खिलाफ एक भयंकर कानूनी पलटवार लॉन्च किया है। अपने चल रहे झगड़े के एक नाटकीय वृद्धि में, ओपनई ने कस्तूरी पर आरोप लगाया कि वह उस कंपनी को कम करने में मदद करने के लिए एक "अथक" और "दुर्भावनापूर्ण" अभियान को छेड़ने का आरोप लगाता है। अदालत के अनुसार डी
रिटर्न में तेजी लाने का कानून समझाया गया: एजीआई विकास का मार्ग रिटर्न में तेजी लाने का कानून समझाया गया: एजीआई विकास का मार्ग हाल ही में एक साक्षात्कार में, एलोन मस्क ने आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) के आगमन के लिए समयरेखा पर अपने आशावादी दृष्टिकोण को साझा किया, यह बताते हुए कि यह *"3 से 6 साल" *के रूप में जल्द ही हो सकता है। इसी तरह, Google के दीपमाइंड के सीईओ, डेमिस हसबिस ने वॉल स्ट्रीट जर्नल के फ्यूचर ऑफ एवरीथिंग फेस्टी में व्यक्त किया
Google का मानना ​​है कि AI इलेक्ट्रिकल ग्रिड की नौकरशाही को सरल बना सकता है Google का मानना ​​है कि AI इलेक्ट्रिकल ग्रिड की नौकरशाही को सरल बना सकता है तकनीकी दुनिया एक संभावित शक्ति संकट पर चिंता के साथ गुलजार है, एआई से आसमान छूती मांग से ईंधन। फिर भी, इस चिंता के बीच, आशा की एक झलक है: नई शक्ति क्षमता की एक बड़ी मात्रा, टेरावाट में मापा गया, बस ग्रिड से जुड़े होने की प्रतीक्षा कर रहा है। कुंजी? के माध्यम से काटने
評論 (45)
0/200
DouglasHarris
DouglasHarris 2025年04月10日 08:10:06

DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!

WilliamYoung
WilliamYoung 2025年04月10日 08:10:06

ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!

SamuelEvans
SamuelEvans 2025年04月10日 08:10:06

딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!

NicholasThomas
NicholasThomas 2025年04月10日 08:10:06

O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!

KennethJones
KennethJones 2025年04月10日 08:10:06

¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!

JoseAdams
JoseAdams 2025年04月10日 11:27:37

DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!

回到頂部
OR