Giấy an toàn AGI của Deepmind không gây hoài nghi

Vào thứ Tư, Google Deepmind đã bỏ một tờ giấy dài 145 trang đi sâu vào cách tiếp cận của họ đối với sự an toàn của AGI. AGI, hay trí thông minh chung nhân tạo, là loại AI có thể giải quyết bất kỳ nhiệm vụ nào mà con người có thể, và đó là một chủ đề nóng trong thế giới AI. Một số người nghĩ rằng đó chỉ là một ảo mộng, trong khi những người khác, như những bức ảnh lớn tại Anthropic, tin rằng nó nằm ngay xung quanh khúc quanh và có thể gây ra một số rắc rối nghiêm trọng nếu chúng ta kiểm soát các biện pháp an toàn. Bài báo của DeepMind, được chấp nhận sự giúp đỡ từ người đồng sáng lập Shane Legg, cho rằng AGI có thể xuất hiện vào năm 2030 và có thể dẫn đến những gì họ gọi là "tác hại nghiêm trọng". Họ không đánh vần chính xác, nhưng họ ném xung quanh các cụm từ đáng sợ như "rủi ro hiện sinh" có thể "phá hủy vĩnh viễn nhân loại". "Chúng tôi đặt cược vào việc nhìn thấy một AGI đặc biệt trước thập kỷ này", các tác giả lưu ý. "Một AGI đặc biệt là một hệ thống có thể phù hợp với các kỹ năng của 1% người lớn hàng đầu trong một loạt các nhiệm vụ phi vật lý, bao gồm những thứ khó khăn như học các kỹ năng mới." Ngay từ đầu, bài báo so sánh cách xử lý rủi ro AGI của DeepMind với cách nhân học và Openai làm điều đó. Nó nói rằng nhân học không lớn trong "đào tạo, giám sát và bảo mật mạnh mẽ", trong khi Openai của Openai về "tự động hóa" một loại nghiên cứu an toàn AI có tên là Alignment Research. Bài báo cũng ném một số bóng râm vào ý tưởng về AI SuperintElgent - AI tốt hơn trong công việc hơn bất kỳ con người nào. . Nhưng họ nghĩ rằng có thể các phương pháp hiện tại của chúng tôi có thể dẫn đến "cải tiến AI đệ quy", nơi AI thực hiện nghiên cứu AI của riêng mình để tạo ra các hệ thống AI thông minh hơn. Và điều đó, họ cảnh báo, có thể siêu nguy hiểm. Nhìn chung, bài viết cho thấy chúng ta cần phát triển các cách để giữ cho các diễn viên xấu tránh xa AGI, hiểu rõ hơn về hệ thống AI đang làm gì và làm cho môi trường hoạt động AI an toàn hơn. Họ thừa nhận rất nhiều trong số những ý tưởng này vẫn đang trong giai đoạn đầu và có "vấn đề nghiên cứu mở", nhưng họ kêu gọi chúng tôi không bỏ qua các vấn đề an toàn có thể xảy ra theo cách của chúng tôi. "AGI có thể mang lại những lợi ích đáng kinh ngạc hoặc tổn hại nghiêm trọng", các tác giả chỉ ra. "Vì vậy, để xây dựng AGI đúng cách, điều quan trọng đối với các nhà phát triển AI hàng đầu để lên kế hoạch trước và giải quyết những rủi ro lớn đó." Mặc dù vậy, không phải ai cũng ở trên tàu với ý tưởng của tờ giấy. Heidy Khlaaf, nhà khoa học AI trưởng tại Viện AI phi lợi nhuận hiện nay, nói với TechCrunch rằng cô nghĩ rằng AGI quá mờ nhạt là một khái niệm "được đánh giá nghiêm ngặt một cách khoa học". Một nhà nghiên cứu AI khác, Matthew Guzdial từ Đại học Alberta, cho biết ông không tin rằng cải thiện AI đệ quy là có thể thực hiện được ngay bây giờ. "Cải thiện đệ quy là những gì mà các lập luận kỳ dị tình báo dựa trên", Guzdial nói với TechCrunch, "nhưng chúng tôi chưa bao giờ thấy bất kỳ bằng chứng nào cho thấy nó thực sự hoạt động." Sandra Wachter, người nghiên cứu công nghệ và quy định tại Oxford, chỉ ra một lo lắng cấp bách hơn: AI củng cố bản thân với "đầu ra không chính xác". "Với ngày càng nhiều nội dung do AI tạo ra trực tuyến và dữ liệu thực được thay thế, các mô hình đang học hỏi từ các đầu ra của chính họ đầy những điểm không chính xác hoặc ảo giác", cô nói với TechCrunch. "Vì chatbot chủ yếu được sử dụng để tìm kiếm và tìm ra sự thật, chúng tôi luôn có nguy cơ được cho ăn thông tin sai lệch được trình bày theo một cách rất thuyết phục." Kỹ lưỡng như vậy, bài báo của DeepMind có lẽ sẽ không kết thúc các cuộc tranh luận về việc AGI thực sự có khả năng như thế nào - và vấn đề an toàn của AI cần sự chú ý nhất ngay bây giờ.
Bài viết liên quan
AI領導者討論AGI:基於現實
在最近一次與舊金山商業領袖的晚餐上,我提出了一個似乎讓現場冷場的問題:今天的人工智能是否能達到或超越人類的智能?這是一個比你預期的更能引發爭議的話題。到了2025年,科技CEO們對像ChatGPT和Gemini背後的大型語言模型(LLM)充滿了樂觀情緒。他們相信這些模型很快就能達到人類級別甚至超人類的智能。以Anthropic的Dario Amodei為例,
Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手
Openai對其聯合創始人Elon Musk及其競爭的AI公司Xai發起了激烈的法律反擊。在他們正在進行的爭執的戲劇性升級中,Openai指責馬斯克發動了一場“無情”和“惡意”運動,破壞了他幫助創辦的公司。根據法院D
加速回報定律解釋了:AGI開發途徑
在最近的一次採訪中,埃隆·馬斯克(Elon Musk)分享了他對人工通用情報(AGI)的時間表的樂觀觀點(AGI),並指出它可能是 *“ 3至6年” *。同樣,Google DeepMind的首席執行官Demis Hassabis在《華爾街日報》的《一切事物》上表達了
Nhận xét (45)
0/200
DouglasHarris
00:00:00 GMT Ngày 10 tháng 4 năm 2025
DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!
0
WilliamYoung
00:00:00 GMT Ngày 10 tháng 4 năm 2025
ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!
0
SamuelEvans
00:00:00 GMT Ngày 10 tháng 4 năm 2025
딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!
0
NicholasThomas
00:00:00 GMT Ngày 10 tháng 4 năm 2025
O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!
0
KennethJones
00:00:00 GMT Ngày 10 tháng 4 năm 2025
¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!
0
JoseAdams
00:00:00 GMT Ngày 10 tháng 4 năm 2025
DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!
0



DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!




ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!




딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!




O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!




¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!




DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!












