Deepmind의 AGI 안전 논문은 회의론자를 흔들지 못합니다
2025년 4월 10일
KevinBrown
33

수요일에 Google Deepmind는 145 페이지의 종이를 AGI 안전에 대한 접근 방식으로 깊이 빠뜨 렸습니다. AGI 또는 인공 일반 정보는 인간이 할 수있는 임무를 해결할 수있는 AI이며 AI 세계에서는 화제가 있습니다. 어떤 사람들은 그것이 환상이라고 생각하지만, 다른 사람들은 Anthropic의 큰 샷과 같은 다른 사람들은 그것이 굽힘 주위에 있다고 믿고 안전 조치를 확인하지 않으면 심각한 문제를 일으킬 수 있습니다. 공동 창립자 인 셰인 레그 (Shane Legg)의 도움을 받아 DeepMind의 논문은 2030 년까지 성가신 Agi가 나타날 수 있으며 "심한 피해"라고 부르는 것을 이끌어 낼 수 있습니다. 그들은 정확히 철자를 쓰지 않지만 "인류를 영구적으로 파괴 할 수있는"실존 위험 "과 같은 무서운 문구를 던지고 있습니다. "우리는이 10 년이되기 전에 탁월한 AGI를 보는 것에 대해 베팅하고있다"고 저자는 지적했다. "뛰어난 AGI는 새로운 기술 학습과 같은 까다로운 것들을 포함하여 많은 비 물리적 작업에서 성인의 상위 1%의 기술을 일치시킬 수있는 시스템입니다." 처음 부터이 논문은 DeepMind의 Agi 위험을 처리하는 방법과 인류 및 OpenAI가 수행하는 방식과 비교합니다. OpenAi는 "강력한 훈련, 모니터링 및 보안"에 크게 크지 않으며 OpenAi는 Alignment Research라는 AI 안전 연구 유형을 "자동화"하는 것에 관한 것입니다. 이 논문은 또한 Superintelligent AI라는 아이디어에 약간의 그늘을 던지고 있습니다. (Openai는 최근 AGI에서 초 지능으로 초점을 바꾸고 있다고 말했다.) 일부 새로운 새로운 획기적인 혁신이 없으면 DeepMind의 저자는 수퍼 인텔리전트 시스템이 곧 나오는 것을 구매하지 않습니다. 그러나 그들은 우리의 현재 방법으로 인해 AI가 더 똑똑한 AI 시스템을 만들기 위해 자체 AI 연구를 수행하는 "재귀 AI 개선"으로 이어질 수 있다고 생각합니다. 그리고 그들은 매우 위험 할 수 있다고 경고합니다. 전반적 으로이 논문은 나쁜 행위자를 AGI에서 멀리 떨어 뜨리고 AI 시스템의 어떤 것인지 더 잘 이해하고 AI가 작동하는 환경을보다 안전하게 만드는 방법을 개발해야한다고 제안합니다. 그들은 이러한 아이디어가 여전히 초기 단계에 있으며 "공개 연구 문제"를 가지고 있음을 인정하지만, 우리가 오는 안전 문제를 무시하지 말라고 촉구합니다. "AGI는 놀라운 혜택이나 심각한 피해를 줄 수 있습니다."라고 저자들은 지적합니다. "따라서 AGI를 올바른 방법으로 구축하려면 최고 AI 개발자가 미리 계획하고 큰 위험을 해결하는 것이 중요합니다." 그래도 모든 사람이 논문의 아이디어에 탑승하는 것은 아닙니다. 비영리 AI AI Institute의 AI 과학자 인 Heidy Khlaaf는 TechCrunch에 AGI가 "과학적으로 엄격하게 평가 될 수 없다"고 AGI가 너무 흐릿하다고 생각했다. 앨버타 대학교 (University of Alberta University)의 또 다른 AI 연구원 인 Matthew Guzdial은 현재 재귀적인 AI 개선이 가능하다고 확신하지 않았다고 말했다. Guzdial은 TechCrunch에 "재귀 개선은 지능 특이성 논쟁에 기반을두고있는 것"이라고 말했다. 옥스포드에서 기술과 규제를 연구하는 Sandra Wachter는 더 시급한 걱정을 지적합니다. AI는 "부정확 한 출력"으로 강화합니다. "점점 더 많은 AI 생성 컨텐츠가 온라인과 실제 데이터가 교체되면서 모델은 부정확성이나 환각으로 가득 찬 자체 출력으로부터 배우고 있습니다."라고 TechCrunch는 말했습니다. "챗봇은 대부분 진실을 찾아서 진실을 찾는 데 사용되기 때문에 우리는 항상 매우 설득력있는 방식으로 제시되는 잘못된 정보를 얻을 위험이 있습니다." DeepMind의 논문은 아마도 AGI가 실제로 얼마나 가능성이 있는지에 대한 논쟁을 끝내지 않을 것입니다. 그리고 어떤 AI 안전 문제가 지금 가장 주목 해야하는지에 대한 논쟁을 끝내지 않을 것입니다.
관련 기사
Openai स्ट्राइक्स बैक: एआई प्रतियोगी को कम करने के लिए कथित प्रयासों के लिए एलोन मस्क ने कहा
Openai ने अपने सह-संस्थापक, एलोन मस्क और उनकी प्रतिस्पर्धी AI कंपनी, XAI के खिलाफ एक भयंकर कानूनी पलटवार लॉन्च किया है। अपने चल रहे झगड़े के एक नाटकीय वृद्धि में, ओपनई ने कस्तूरी पर आरोप लगाया कि वह उस कंपनी को कम करने में मदद करने के लिए एक "अथक" और "दुर्भावनापूर्ण" अभियान को छेड़ने का आरोप लगाता है। अदालत के अनुसार डी
रिटर्न में तेजी लाने का कानून समझाया गया: एजीआई विकास का मार्ग
हाल ही में एक साक्षात्कार में, एलोन मस्क ने आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) के आगमन के लिए समयरेखा पर अपने आशावादी दृष्टिकोण को साझा किया, यह बताते हुए कि यह *"3 से 6 साल" *के रूप में जल्द ही हो सकता है। इसी तरह, Google के दीपमाइंड के सीईओ, डेमिस हसबिस ने वॉल स्ट्रीट जर्नल के फ्यूचर ऑफ एवरीथिंग फेस्टी में व्यक्त किया
Google का मानना है कि AI इलेक्ट्रिकल ग्रिड की नौकरशाही को सरल बना सकता है
तकनीकी दुनिया एक संभावित शक्ति संकट पर चिंता के साथ गुलजार है, एआई से आसमान छूती मांग से ईंधन। फिर भी, इस चिंता के बीच, आशा की एक झलक है: नई शक्ति क्षमता की एक बड़ी मात्रा, टेरावाट में मापा गया, बस ग्रिड से जुड़े होने की प्रतीक्षा कर रहा है। कुंजी? के माध्यम से काटने
의견 (45)
0/200
DouglasHarris
2025년 4월 10일 오전 8시 10분 6초 GMT
DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!
0
WilliamYoung
2025년 4월 10일 오전 8시 10분 6초 GMT
ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!
0
SamuelEvans
2025년 4월 10일 오전 8시 10분 6초 GMT
딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!
0
NicholasThomas
2025년 4월 10일 오전 8시 10분 6초 GMT
O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!
0
KennethJones
2025년 4월 10일 오전 8시 10분 6초 GMT
¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!
0
JoseAdams
2025년 4월 10일 오전 11시 27분 37초 GMT
DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!
0









DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!




ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!




딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!




O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!




¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!




DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!












