lựa chọn
Trang chủ Tin tức Giấy an toàn AGI của Deepmind không gây hoài nghi

Giấy an toàn AGI của Deepmind không gây hoài nghi

ngày phát hành ngày phát hành Ngày 10 tháng 4 năm 2025
Tác giả Tác giả KevinBrown
quan điểm quan điểm 33

Giấy an toàn AGI của Deepmind không gây hoài nghi

Vào thứ Tư, Google Deepmind đã bỏ một tờ giấy dài 145 trang đi sâu vào cách tiếp cận của họ đối với sự an toàn của AGI. AGI, hay trí thông minh chung nhân tạo, là loại AI có thể giải quyết bất kỳ nhiệm vụ nào mà con người có thể, và đó là một chủ đề nóng trong thế giới AI. Một số người nghĩ rằng đó chỉ là một ảo mộng, trong khi những người khác, như những bức ảnh lớn tại Anthropic, tin rằng nó nằm ngay xung quanh khúc quanh và có thể gây ra một số rắc rối nghiêm trọng nếu chúng ta kiểm soát các biện pháp an toàn. Bài báo của DeepMind, được chấp nhận sự giúp đỡ từ người đồng sáng lập Shane Legg, cho rằng AGI có thể xuất hiện vào năm 2030 và có thể dẫn đến những gì họ gọi là "tác hại nghiêm trọng". Họ không đánh vần chính xác, nhưng họ ném xung quanh các cụm từ đáng sợ như "rủi ro hiện sinh" có thể "phá hủy vĩnh viễn nhân loại". "Chúng tôi đặt cược vào việc nhìn thấy một AGI đặc biệt trước thập kỷ này", các tác giả lưu ý. "Một AGI đặc biệt là một hệ thống có thể phù hợp với các kỹ năng của 1% người lớn hàng đầu trong một loạt các nhiệm vụ phi vật lý, bao gồm những thứ khó khăn như học các kỹ năng mới." Ngay từ đầu, bài báo so sánh cách xử lý rủi ro AGI của DeepMind với cách nhân học và Openai làm điều đó. Nó nói rằng nhân học không lớn trong "đào tạo, giám sát và bảo mật mạnh mẽ", trong khi Openai của Openai về "tự động hóa" một loại nghiên cứu an toàn AI có tên là Alignment Research. Bài báo cũng ném một số bóng râm vào ý tưởng về AI SuperintElgent - AI tốt hơn trong công việc hơn bất kỳ con người nào. . Nhưng họ nghĩ rằng có thể các phương pháp hiện tại của chúng tôi có thể dẫn đến "cải tiến AI đệ quy", nơi AI thực hiện nghiên cứu AI của riêng mình để tạo ra các hệ thống AI thông minh hơn. Và điều đó, họ cảnh báo, có thể siêu nguy hiểm. Nhìn chung, bài viết cho thấy chúng ta cần phát triển các cách để giữ cho các diễn viên xấu tránh xa AGI, hiểu rõ hơn về hệ thống AI đang làm gì và làm cho môi trường hoạt động AI an toàn hơn. Họ thừa nhận rất nhiều trong số những ý tưởng này vẫn đang trong giai đoạn đầu và có "vấn đề nghiên cứu mở", nhưng họ kêu gọi chúng tôi không bỏ qua các vấn đề an toàn có thể xảy ra theo cách của chúng tôi. "AGI có thể mang lại những lợi ích đáng kinh ngạc hoặc tổn hại nghiêm trọng", các tác giả chỉ ra. "Vì vậy, để xây dựng AGI đúng cách, điều quan trọng đối với các nhà phát triển AI hàng đầu để lên kế hoạch trước và giải quyết những rủi ro lớn đó." Mặc dù vậy, không phải ai cũng ở trên tàu với ý tưởng của tờ giấy. Heidy Khlaaf, nhà khoa học AI trưởng tại Viện AI phi lợi nhuận hiện nay, nói với TechCrunch rằng cô nghĩ rằng AGI quá mờ nhạt là một khái niệm "được đánh giá nghiêm ngặt một cách khoa học". Một nhà nghiên cứu AI khác, Matthew Guzdial từ Đại học Alberta, cho biết ông không tin rằng cải thiện AI đệ quy là có thể thực hiện được ngay bây giờ. "Cải thiện đệ quy là những gì mà các lập luận kỳ dị tình báo dựa trên", Guzdial nói với TechCrunch, "nhưng chúng tôi chưa bao giờ thấy bất kỳ bằng chứng nào cho thấy nó thực sự hoạt động." Sandra Wachter, người nghiên cứu công nghệ và quy định tại Oxford, chỉ ra một lo lắng cấp bách hơn: AI củng cố bản thân với "đầu ra không chính xác". "Với ngày càng nhiều nội dung do AI tạo ra trực tuyến và dữ liệu thực được thay thế, các mô hình đang học hỏi từ các đầu ra của chính họ đầy những điểm không chính xác hoặc ảo giác", cô nói với TechCrunch. "Vì chatbot chủ yếu được sử dụng để tìm kiếm và tìm ra sự thật, chúng tôi luôn có nguy cơ được cho ăn thông tin sai lệch được trình bày theo một cách rất thuyết phục." Kỹ lưỡng như vậy, bài báo của DeepMind có lẽ sẽ không kết thúc các cuộc tranh luận về việc AGI thực sự có khả năng như thế nào - và vấn đề an toàn của AI cần sự chú ý nhất ngay bây giờ.
Bài viết liên quan
Openai स्ट्राइक्स बैक: एआई प्रतियोगी को कम करने के लिए कथित प्रयासों के लिए एलोन मस्क ने कहा Openai स्ट्राइक्स बैक: एआई प्रतियोगी को कम करने के लिए कथित प्रयासों के लिए एलोन मस्क ने कहा Openai ने अपने सह-संस्थापक, एलोन मस्क और उनकी प्रतिस्पर्धी AI कंपनी, XAI के खिलाफ एक भयंकर कानूनी पलटवार लॉन्च किया है। अपने चल रहे झगड़े के एक नाटकीय वृद्धि में, ओपनई ने कस्तूरी पर आरोप लगाया कि वह उस कंपनी को कम करने में मदद करने के लिए एक "अथक" और "दुर्भावनापूर्ण" अभियान को छेड़ने का आरोप लगाता है। अदालत के अनुसार डी
रिटर्न में तेजी लाने का कानून समझाया गया: एजीआई विकास का मार्ग रिटर्न में तेजी लाने का कानून समझाया गया: एजीआई विकास का मार्ग हाल ही में एक साक्षात्कार में, एलोन मस्क ने आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) के आगमन के लिए समयरेखा पर अपने आशावादी दृष्टिकोण को साझा किया, यह बताते हुए कि यह *"3 से 6 साल" *के रूप में जल्द ही हो सकता है। इसी तरह, Google के दीपमाइंड के सीईओ, डेमिस हसबिस ने वॉल स्ट्रीट जर्नल के फ्यूचर ऑफ एवरीथिंग फेस्टी में व्यक्त किया
Google का मानना ​​है कि AI इलेक्ट्रिकल ग्रिड की नौकरशाही को सरल बना सकता है Google का मानना ​​है कि AI इलेक्ट्रिकल ग्रिड की नौकरशाही को सरल बना सकता है तकनीकी दुनिया एक संभावित शक्ति संकट पर चिंता के साथ गुलजार है, एआई से आसमान छूती मांग से ईंधन। फिर भी, इस चिंता के बीच, आशा की एक झलक है: नई शक्ति क्षमता की एक बड़ी मात्रा, टेरावाट में मापा गया, बस ग्रिड से जुड़े होने की प्रतीक्षा कर रहा है। कुंजी? के माध्यम से काटने
Nhận xét (45)
0/200
DouglasHarris
DouglasHarris 08:10:06 GMT Ngày 10 tháng 4 năm 2025

DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!

WilliamYoung
WilliamYoung 08:10:06 GMT Ngày 10 tháng 4 năm 2025

ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!

SamuelEvans
SamuelEvans 08:10:06 GMT Ngày 10 tháng 4 năm 2025

딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!

NicholasThomas
NicholasThomas 08:10:06 GMT Ngày 10 tháng 4 năm 2025

O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!

KennethJones
KennethJones 08:10:06 GMT Ngày 10 tháng 4 năm 2025

¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!

JoseAdams
JoseAdams 11:27:37 GMT Ngày 10 tháng 4 năm 2025

DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!

Quay lại đầu
OR