Giấy an toàn AGI của Deepmind không gây hoài nghi

Vào thứ Tư, Google DeepMind công bố một bài báo dài 145 trang đi sâu vào cách tiếp cận của họ đối với an toàn AGI. AGI, hay trí tuệ nhân tạo tổng quát, là loại AI có thể thực hiện bất kỳ nhiệm vụ nào mà con người có thể làm, và nó là chủ đề nóng trong thế giới AI. Một số người cho rằng đó chỉ là tưởng tượng, trong khi những người khác, như các nhân vật lớn tại Anthropic, tin rằng nó sắp xuất hiện và có thể gây ra rắc rối nghiêm trọng nếu chúng ta không kiểm soát được các biện pháp an toàn.
Bài báo của DeepMind, được viết với sự hỗ trợ từ đồng sáng lập Shane Legg, dự đoán AGI có thể xuất hiện vào năm 2030 và có thể dẫn đến những gì họ gọi là "tổn hại nghiêm trọng." Họ không nêu rõ chi tiết, nhưng sử dụng những cụm từ đáng sợ như "rủi ro tồn tại" có thể "phá hủy nhân loại vĩnh viễn."
"Chúng tôi tin rằng sẽ thấy một AGI Xuất sắc trước khi thập kỷ này kết thúc," các tác giả lưu ý. "Một AGI Xuất sắc là hệ thống có thể sánh ngang kỹ năng của 1% người trưởng thành hàng đầu trong nhiều nhiệm vụ phi vật lý, bao gồm những việc phức tạp như học kỹ năng mới."
Ngay từ đầu, bài báo so sánh cách DeepMind xử lý rủi ro AGI với cách của Anthropic và OpenAI. Nó nói rằng Anthropic không chú trọng nhiều vào "đào tạo mạnh mẽ, giám sát và bảo mật," trong khi OpenAI tập trung vào "tự động hóa" một loại nghiên cứu an toàn AI gọi là nghiên cứu căn chỉnh.
Bài báo cũng chỉ trích ý tưởng về AI siêu thông minh — AI vượt trội hơn con người trong mọi công việc. (OpenAI gần đây cho biết họ đang chuyển trọng tâm từ AGI sang siêu trí tuệ.) Nếu không có những bước đột phá lớn, các tác giả của DeepMind không tin rằng các hệ thống siêu thông minh sẽ xuất hiện sớm — hoặc có thể mãi mãi không.
Nhưng họ cho rằng các phương pháp hiện tại có thể dẫn đến "cải tiến AI đệ quy," nơi AI tự nghiên cứu AI để tạo ra các hệ thống thông minh hơn. Và điều đó, họ cảnh báo, có thể cực kỳ nguy hiểm.
Nhìn chung, bài báo đề xuất cần phát triển cách ngăn chặn những kẻ xấu tiếp cận AGI, hiểu rõ hơn về hoạt động của các hệ thống AI, và làm cho môi trường hoạt động của AI an toàn hơn. Họ thừa nhận nhiều ý tưởng này vẫn đang ở giai đoạn đầu và có "các vấn đề nghiên cứu mở," nhưng kêu gọi không được bỏ qua các vấn đề an toàn có thể xảy ra.
"AGI có thể mang lại lợi ích tuyệt vời hoặc tổn hại nghiêm trọng," các tác giả nhấn mạnh. "Vì vậy, để xây dựng AGI đúng cách, các nhà phát triển AI hàng đầu cần lập kế hoạch trước và giải quyết những rủi ro lớn đó."
Tuy nhiên, không phải ai cũng đồng tình với các ý tưởng trong bài báo.
Heidy Khlaaf, nhà khoa học AI trưởng tại Viện AI Now phi lợi nhuận, nói với TechCrunch rằng cô nghĩ AGI là một khái niệm quá mơ hồ để được "đánh giá khoa học một cách nghiêm túc." Một nhà nghiên cứu AI khác, Matthew Guzdial từ Đại học Alberta, nói rằng ông không tin cải tiến AI đệ quy hiện có thể thực hiện được.
"Cải tiến đệ quy là cơ sở của các lập luận về điểm kỳ dị trí tuệ," Guzdial nói với TechCrunch, "nhưng chúng ta chưa từng thấy bằng chứng nào cho thấy nó thực sự hoạt động."
Sandra Wachter, người nghiên cứu công nghệ và quy định tại Oxford, chỉ ra một mối lo ngại cấp bách hơn: AI củng cố chính nó bằng "kết quả không chính xác."
"Với ngày càng nhiều nội dung do AI tạo ra trực tuyến và dữ liệu thực bị thay thế, các mô hình đang học từ chính kết quả của chúng, đầy rẫy những sai sót hoặc ảo giác," cô nói với TechCrunch. "Vì chatbot chủ yếu được dùng để tìm kiếm và khám phá sự thật, chúng ta luôn có nguy cơ nhận thông tin sai lệch được trình bày một cách rất thuyết phục."
Dù kỹ lưỡng đến đâu, bài báo của DeepMind có lẽ sẽ không chấm dứt tranh luận về khả năng AGI thực sự xảy ra — và những vấn đề an toàn AI nào cần được chú ý nhất hiện nay.
Bài viết liên quan
OpenAI Tái Khẳng Định Gốc Rễ Phi Lợi Nhuận Trong Cuộc Đại Tu Doanh Nghiệp Lớn
OpenAI vẫn kiên định với sứ mệnh phi lợi nhuận khi trải qua một cuộc tái cơ cấu doanh nghiệp quan trọng, cân bằng giữa tăng trưởng và cam kết phát triển AI một cách có đạo đức.CEO Sam Altman đã phác t
Google Ra Mắt Mô Hình AI Gemini Trên Thiết Bị cho Robot
Google DeepMind Công Bố Gemini Robotics Trên Thiết Bị cho Điều Khiển Robot Ngoại TuyếnGoogle DeepMind vừa công bố một cập nhật thú vị trong lĩnh vực robot—Gemini Robotics Trên Thiết Bị, một mô hình ng
Nghiên Cứu Mới Tiết Lộ Lượng Dữ Liệu LLMs Thực Sự Ghi Nhớ
AI Ghi Nhớ Bao Nhiêu? Nghiên Cứu Mới Tiết Lộ Những Hiểu Biết Bất NgờChúng ta đều biết rằng các mô hình ngôn ngữ lớn (LLMs) như ChatGPT, Claude, và Gemini được huấn luyện trên các tập dữ liệu khổng lồ—
Nhận xét (47)
0/200
CarlPerez
06:01:00 GMT+07:00 Ngày 11 tháng 8 năm 2025
This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!
0
ArthurYoung
18:00:59 GMT+07:00 Ngày 09 tháng 8 năm 2025
DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔
0
GregoryRodriguez
22:58:08 GMT+07:00 Ngày 22 tháng 4 năm 2025
DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.
0
GeorgeJones
19:35:58 GMT+07:00 Ngày 20 tháng 4 năm 2025
DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.
0
CharlesLee
22:24:35 GMT+07:00 Ngày 18 tháng 4 năm 2025
O artigo de segurança de AGI da DeepMind? Honestamente, não me convenceu em nada 🤔. 145 páginas e ainda estou cético. AGI parece ficção científica para mim, mas, ei, se eles conseguirem torná-lo seguro, estou a favor! Talvez na próxima eles tenham algo mais sólido.
0
CarlTaylor
13:26:53 GMT+07:00 Ngày 18 tháng 4 năm 2025
Tentei ler o papel de segurança de AGI do DeepMind, mas é tão denso! 😵💫 Parece que estão tentando nos convencer de que AGI é real, mas ainda não estou convencido. Talvez se tornasse mais digerível, eu ficaria mais convencido. Ainda assim, parabéns pelo esforço!
0
Vào thứ Tư, Google DeepMind công bố một bài báo dài 145 trang đi sâu vào cách tiếp cận của họ đối với an toàn AGI. AGI, hay trí tuệ nhân tạo tổng quát, là loại AI có thể thực hiện bất kỳ nhiệm vụ nào mà con người có thể làm, và nó là chủ đề nóng trong thế giới AI. Một số người cho rằng đó chỉ là tưởng tượng, trong khi những người khác, như các nhân vật lớn tại Anthropic, tin rằng nó sắp xuất hiện và có thể gây ra rắc rối nghiêm trọng nếu chúng ta không kiểm soát được các biện pháp an toàn.
Bài báo của DeepMind, được viết với sự hỗ trợ từ đồng sáng lập Shane Legg, dự đoán AGI có thể xuất hiện vào năm 2030 và có thể dẫn đến những gì họ gọi là "tổn hại nghiêm trọng." Họ không nêu rõ chi tiết, nhưng sử dụng những cụm từ đáng sợ như "rủi ro tồn tại" có thể "phá hủy nhân loại vĩnh viễn."
"Chúng tôi tin rằng sẽ thấy một AGI Xuất sắc trước khi thập kỷ này kết thúc," các tác giả lưu ý. "Một AGI Xuất sắc là hệ thống có thể sánh ngang kỹ năng của 1% người trưởng thành hàng đầu trong nhiều nhiệm vụ phi vật lý, bao gồm những việc phức tạp như học kỹ năng mới."
Ngay từ đầu, bài báo so sánh cách DeepMind xử lý rủi ro AGI với cách của Anthropic và OpenAI. Nó nói rằng Anthropic không chú trọng nhiều vào "đào tạo mạnh mẽ, giám sát và bảo mật," trong khi OpenAI tập trung vào "tự động hóa" một loại nghiên cứu an toàn AI gọi là nghiên cứu căn chỉnh.
Bài báo cũng chỉ trích ý tưởng về AI siêu thông minh — AI vượt trội hơn con người trong mọi công việc. (OpenAI gần đây cho biết họ đang chuyển trọng tâm từ AGI sang siêu trí tuệ.) Nếu không có những bước đột phá lớn, các tác giả của DeepMind không tin rằng các hệ thống siêu thông minh sẽ xuất hiện sớm — hoặc có thể mãi mãi không.
Nhưng họ cho rằng các phương pháp hiện tại có thể dẫn đến "cải tiến AI đệ quy," nơi AI tự nghiên cứu AI để tạo ra các hệ thống thông minh hơn. Và điều đó, họ cảnh báo, có thể cực kỳ nguy hiểm.
Nhìn chung, bài báo đề xuất cần phát triển cách ngăn chặn những kẻ xấu tiếp cận AGI, hiểu rõ hơn về hoạt động của các hệ thống AI, và làm cho môi trường hoạt động của AI an toàn hơn. Họ thừa nhận nhiều ý tưởng này vẫn đang ở giai đoạn đầu và có "các vấn đề nghiên cứu mở," nhưng kêu gọi không được bỏ qua các vấn đề an toàn có thể xảy ra.
"AGI có thể mang lại lợi ích tuyệt vời hoặc tổn hại nghiêm trọng," các tác giả nhấn mạnh. "Vì vậy, để xây dựng AGI đúng cách, các nhà phát triển AI hàng đầu cần lập kế hoạch trước và giải quyết những rủi ro lớn đó."
Tuy nhiên, không phải ai cũng đồng tình với các ý tưởng trong bài báo.
Heidy Khlaaf, nhà khoa học AI trưởng tại Viện AI Now phi lợi nhuận, nói với TechCrunch rằng cô nghĩ AGI là một khái niệm quá mơ hồ để được "đánh giá khoa học một cách nghiêm túc." Một nhà nghiên cứu AI khác, Matthew Guzdial từ Đại học Alberta, nói rằng ông không tin cải tiến AI đệ quy hiện có thể thực hiện được.
"Cải tiến đệ quy là cơ sở của các lập luận về điểm kỳ dị trí tuệ," Guzdial nói với TechCrunch, "nhưng chúng ta chưa từng thấy bằng chứng nào cho thấy nó thực sự hoạt động."
Sandra Wachter, người nghiên cứu công nghệ và quy định tại Oxford, chỉ ra một mối lo ngại cấp bách hơn: AI củng cố chính nó bằng "kết quả không chính xác."
"Với ngày càng nhiều nội dung do AI tạo ra trực tuyến và dữ liệu thực bị thay thế, các mô hình đang học từ chính kết quả của chúng, đầy rẫy những sai sót hoặc ảo giác," cô nói với TechCrunch. "Vì chatbot chủ yếu được dùng để tìm kiếm và khám phá sự thật, chúng ta luôn có nguy cơ nhận thông tin sai lệch được trình bày một cách rất thuyết phục."
Dù kỹ lưỡng đến đâu, bài báo của DeepMind có lẽ sẽ không chấm dứt tranh luận về khả năng AGI thực sự xảy ra — và những vấn đề an toàn AI nào cần được chú ý nhất hiện nay.



This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!




DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔




DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.




DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.




O artigo de segurança de AGI da DeepMind? Honestamente, não me convenceu em nada 🤔. 145 páginas e ainda estou cético. AGI parece ficção científica para mim, mas, ei, se eles conseguirem torná-lo seguro, estou a favor! Talvez na próxima eles tenham algo mais sólido.




Tentei ler o papel de segurança de AGI do DeepMind, mas é tão denso! 😵💫 Parece que estão tentando nos convencer de que AGI é real, mas ainda não estou convencido. Talvez se tornasse mais digerível, eu ficaria mais convencido. Ainda assim, parabéns pelo esforço!












