DeepmindのAGI安全紙は懐疑論者を揺るがすことができません
2025年4月10日
KevinBrown
33

水曜日に、Google Deepmindは、AGIの安全へのアプローチに深く潜り込んでいる145ページの紙を掘り下げました。 AGI、または人工的な一般情報は、人間ができるあらゆるタスクに取り組むことができるAIのようなものであり、AIの世界ではホットな話題です。一部の人々はそれが単なるファンタジーだと思っていますが、他の人は人類の大きなショットのように、それが曲がりの周りにあると信じており、安全対策をチェックしなければ深刻なトラブルを引き起こす可能性があります。共同設立者のShane Leggの助けを借りて書かれたDeepmindの論文は、Agiが2030年までに現れるかもしれないと考えており、彼らが「深刻な危害」と呼ぶものにつながる可能性があります。彼らはそれを正確に綴っていませんが、「人類を永久に破壊する」可能性のある「実存的リスク」のような恐ろしいフレーズの周りに投げます。 「私たちは、この10年が出る前に、例外的なAGIを見ることに賭けています」と著者は指摘します。 「例外的なAGIは、新しいスキルを学ぶなどのトリッキーなものを含む、多くの非物理的なタスクで、大人の上位1%のスキルに合うことができるシステムです。」最初から、この論文では、AGIリスクを処理するDeepMindの方法と、AnthropicとOpenaiがどのように行うかを比較しています。 「堅牢なトレーニング、監視、セキュリティ」で人類がそれほど大きくないと述べていますが、OpenaiはAlignment Researchと呼ばれるAIの安全研究を「自動化する」ことについてです。この論文はまた、スーパーインテリジェントAIのアイデアにもいくつかの日陰を投げかけます。これは、どの人間よりも仕事に優れています。 (Openaiは最近、AGIからSuperintelligenceに焦点を移していると述べた。)いくつかの大きな新しいブレークスルーがなければ、DeepMindの著者は、すぐに、あるいはおそらくこれまでに緊密なシステムが来ることを購入していない。しかし、彼らは、現在の方法が「再帰的なAIの改善」につながる可能性があると考えています。AIは、さらに賢いAIシステムを作るために独自のAI研究を行っています。そして、彼らは警告すると、非常に危険である可能性があります。全体として、この論文は、悪い俳優をAGIから遠ざけ、AIシステムが何をしているかをよりよく理解し、AIがより安全に動作する環境を作る方法を開発する必要があることを示唆しています。彼らは、これらのアイデアの多くがまだ初期段階にあり、「開かれた研究の問題」を抱えていることを認めていますが、私たちの道が来るかもしれない安全性の問題を無視しないように促しています。 「AGIは驚くべき利益や深刻な害をもたらす可能性がある」と著者は指摘する。 「だから、AGIを正しい方法で構築するには、トップのAI開発者が事前に計画してこれらの大きなリスクに取り組むことが重要です。」しかし、誰もが紙のアイデアに乗っているわけではありません。非営利AI Now InstituteのチーフAI科学者であるHeidy Khlaafは、TechCrunchに、Agiは「科学的に厳密に評価される」ためには概念ではないと考えていると語った。別のAIの研究者であるアルバータ大学のマシュー・グズディアルは、再帰的なAIの改善が現在実行可能であると確信していないと述べました。 「再帰的な改善は、知性の特異性の議論が基づいているものです」とGuzdialはTechCrunchに語った。オックスフォードで技術と規制を研究しているサンドラ・ワッハターは、より差し迫った心配を指摘しています。AIは「不正確な出力」でそれ自体を強化します。 「オンラインでより多くのAIに生成されたコンテンツと実際のデータが置き換えられると、モデルは不正確さや幻覚に満ちた独自の出力から学習しています」と彼女はTechCrunchに語った。 「チャットボットは主に真実を検索して見つけるために使用されているため、私たちは常に非常に説得力のある方法で提示される虚偽の情報を与えられるリスクがあります。」徹底的に、DeepMindの論文はおそらくAGIが実際にどれほどの可能性があるかについての議論を終わらせないでしょう。
関連記事
Openai स्ट्राइक्स बैक: एआई प्रतियोगी को कम करने के लिए कथित प्रयासों के लिए एलोन मस्क ने कहा
Openai ने अपने सह-संस्थापक, एलोन मस्क और उनकी प्रतिस्पर्धी AI कंपनी, XAI के खिलाफ एक भयंकर कानूनी पलटवार लॉन्च किया है। अपने चल रहे झगड़े के एक नाटकीय वृद्धि में, ओपनई ने कस्तूरी पर आरोप लगाया कि वह उस कंपनी को कम करने में मदद करने के लिए एक "अथक" और "दुर्भावनापूर्ण" अभियान को छेड़ने का आरोप लगाता है। अदालत के अनुसार डी
रिटर्न में तेजी लाने का कानून समझाया गया: एजीआई विकास का मार्ग
हाल ही में एक साक्षात्कार में, एलोन मस्क ने आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) के आगमन के लिए समयरेखा पर अपने आशावादी दृष्टिकोण को साझा किया, यह बताते हुए कि यह *"3 से 6 साल" *के रूप में जल्द ही हो सकता है। इसी तरह, Google के दीपमाइंड के सीईओ, डेमिस हसबिस ने वॉल स्ट्रीट जर्नल के फ्यूचर ऑफ एवरीथिंग फेस्टी में व्यक्त किया
Google का मानना है कि AI इलेक्ट्रिकल ग्रिड की नौकरशाही को सरल बना सकता है
तकनीकी दुनिया एक संभावित शक्ति संकट पर चिंता के साथ गुलजार है, एआई से आसमान छूती मांग से ईंधन। फिर भी, इस चिंता के बीच, आशा की एक झलक है: नई शक्ति क्षमता की एक बड़ी मात्रा, टेरावाट में मापा गया, बस ग्रिड से जुड़े होने की प्रतीक्षा कर रहा है। कुंजी? के माध्यम से काटने
コメント (45)
0/200
DouglasHarris
2025年4月10日 8:10:06 GMT
DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!
0
WilliamYoung
2025年4月10日 8:10:06 GMT
ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!
0
SamuelEvans
2025年4月10日 8:10:06 GMT
딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!
0
NicholasThomas
2025年4月10日 8:10:06 GMT
O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!
0
KennethJones
2025年4月10日 8:10:06 GMT
¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!
0
JoseAdams
2025年4月10日 11:27:37 GMT
DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!
0









DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!




ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!




딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!




O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!




¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!




DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!












