オプション
ニュース
DeepmindのAGI安全紙は懐疑論者を揺るがすことができません

DeepmindのAGI安全紙は懐疑論者を揺るがすことができません

2025年4月10日
116

DeepmindのAGI安全紙は懐疑論者を揺るがすことができません

水曜日に、Google DeepMindはAGIの安全性に関する145ページにわたる詳細な論文を公開しました。AGI、つまり人工汎用知能は、人間がこなせるあらゆるタスクを処理できるAIで、AI界では注目の話題です。一部の人々はこれを単なる空想と考えますが、Anthropicのような大手は、すぐそこまで来ており、安全対策を整えなければ深刻な問題を引き起こす可能性があると信じています。

DeepMindの論文は、共同創業者シェーン・レッグの協力で書かれ、AGIが2030年までに登場し、「重大な害」を引き起こす可能性があると推測しています。具体的な詳細は明示されていませんが、「人類を永久に破壊する」ような「実存的リスク」といった恐ろしい表現が使われています。

「我々は、この10年が終わる前にExceptional AGIが登場すると予想しています」と著者らは記しています。「Exceptional AGIとは、身体的でないタスクの多くで、上位1%の成人のスキルに匹敵するシステムで、新しいスキルの学習のような難しいことも含まれます。」

論文は冒頭から、DeepMindのAGIリスクへの対応をAnthropicやOpenAIと比較しています。Anthropicは「堅牢なトレーニング、監視、セキュリティ」にそれほど注力していないとし、OpenAIはAI安全研究の一種であるアライメント研究を「自動化」することに重点を置いていると述べています。

論文はまた、超知能AI—どんな人間よりも仕事で優れたAI—という考えに疑問を投げかけています。(OpenAIは最近、AGIから超知能への焦点の移行を表明しました。)大きなブレークスルーがなければ、DeepMindの著者らは超知能システムが近いうちに、または永遠に登場するとは考えていません。

しかし、現在の手法が「再帰的AI改善」を引き起こす可能性はあると考えており、AIが自らAI研究を行ってさらに賢いAIシステムを作るというものです。そしてそれは、非常に危険だと警告しています。

全体として、論文は悪意ある者からAGIを守る方法を開発し、AIシステムの動作をより良く理解し、AIが動作する環境をより安全にする必要があると提案しています。これらのアイデアの多くはまだ初期段階にあり、「未解決の研究課題」があると認めていますが、迫りくる安全性の問題を無視しないよう促しています。

「AGIは驚くべき利益をもたらす可能性がある一方、深刻な害を引き起こす可能性もあります」と著者らは指摘します。「だから、AGIを正しく構築するには、トップAI開発者が前もって計画し、大きなリスクに取り組むことが不可欠です。」

しかし、論文の考えに全員が賛同しているわけではありません。

非営利のAI Now Instituteの主任AI科学者ハイディ・クラーフは、TechCrunchに対し、AGIは「科学的に厳密に評価するには曖昧すぎる概念」だと述べました。アルバータ大学のAI研究者マシュー・グズディアルは、再帰的AI改善が現時点で実現可能だと確信していません。

「再帰的改善は知能シンギュラリティ論の基盤ですが、それが実際に機能するという証拠はこれまでに見たことがありません」とグズディアルはTechCrunchに語りました。

オックスフォードで技術と規制を研究するサンドラ・ワクターは、より差し迫った懸念として、AIが「不正確な出力」で自己強化することを指摘しています。

「オンライン上のAI生成コンテンツが増え、実際のデータが置き換えられるにつれて、モデルは不正確さや幻覚に満ちた自身の出力から学習しています」と彼女はTechCrunchに語りました。「チャットボットは主に検索や真実の探求に使われるため、非常に説得力のある形で誤った情報が提供されるリスクが常にあります。」

詳細な内容にもかかわらず、DeepMindの論文は、AGIがどの程度実現可能か、そしてどのAI安全性の問題が今最も注目されるべきかについての議論を終わらせることはないでしょう。

関連記事
OpenAIが非営利のルーツを再確認、主要な企業再編の中で OpenAIが非営利のルーツを再確認、主要な企業再編の中で OpenAIは、倫理的なAI開発へのコミットメントと成長のバランスを取りながら、大きな企業再編を進め、非営利のミッションに揺るぎなく取り組んでいます。CEOのサム・アルトマンは、会社のビジョンを概説し、財務戦略が進化している一方で、人工汎用知能(AGI)をグローバルな利益のために進めるOpenAIの献身は変わらないと強調しました。公開声明で、アルトマンは次のように述べました:「OpenAIは従来の
Google、デバイス上Gemini AIモデルをロボット向けに公開 Google、デバイス上Gemini AIモデルをロボット向けに公開 Google DeepMind、Gemini Robotics On-Deviceをオフラインのロボット制御向けに発表Google DeepMindがロボティクス分野でエキサイティングなアップデートを発表—Gemini Robotics On-Deviceは、ロボットがインターネット接続なしでタスクを実行できる新しい言語モデルです。これは以前のGemini Roboticsモデル(3月リリース)を
新しい研究がLLMが実際にどれだけデータを記憶するかを明らかに 新しい研究がLLMが実際にどれだけデータを記憶するかを明らかに AIモデルは実際にどれだけ記憶するのか? 新しい研究が驚くべき洞察を明らかにChatGPT、Claude、Geminiなどの大規模言語モデル(LLM)は、本、ウェブサイト、コード、そして画像や音声などのマルチメディアからなる膨大なデータセット—何兆もの単語—で訓練されています。しかし、そのデータはどうなるのでしょうか? これらのモデルは本当に言語を「理解」しているのか、それとも記憶した断片をただ繰
コメント (47)
0/200
CarlPerez
CarlPerez 2025年8月11日 8:01:00 JST

This DeepMind paper sounds like a big swing at tackling AGI safety, but 145 pages and skeptics still aren't convinced? 🤔 Maybe they’re onto something, or maybe it’s just too early to trust any AI to be 'safe' when it’s smarter than us!

ArthurYoung
ArthurYoung 2025年8月9日 20:00:59 JST

DeepMind's 145-page AGI safety paper sounds like a beast! I’m curious if it’s more hype than substance—anyone read it yet? 🤔

GregoryRodriguez
GregoryRodriguez 2025年4月23日 0:58:08 JST

DeepMind's AGI safety paper? Honestly, it didn't convince me at all 🤔. 145 pages and I'm still skeptical. AGI sounds like sci-fi to me, but hey, if they can make it safe, I'm all for it! Maybe next time they'll have something more solid.

GeorgeJones
GeorgeJones 2025年4月20日 21:35:58 JST

DeepMind의 AGI 안전 논문? 솔직히 전혀 설득력이 없었어요 🤔. 145페이지를 읽었는데도 여전히 회의적이에요. AGI는 제게는 SF처럼 들려요, 하지만 안전하게 할 수 있다면 찬성해요! 다음번에는 더 설득력 있는 것을 기대할게요.

CharlesLee
CharlesLee 2025年4月19日 0:24:35 JST

O artigo de segurança de AGI da DeepMind? Honestamente, não me convenceu em nada 🤔. 145 páginas e ainda estou cético. AGI parece ficção científica para mim, mas, ei, se eles conseguirem torná-lo seguro, estou a favor! Talvez na próxima eles tenham algo mais sólido.

CarlTaylor
CarlTaylor 2025年4月18日 15:26:53 JST

Tentei ler o papel de segurança de AGI do DeepMind, mas é tão denso! 😵‍💫 Parece que estão tentando nos convencer de que AGI é real, mas ainda não estou convencido. Talvez se tornasse mais digerível, eu ficaria mais convencido. Ainda assim, parabéns pelo esforço!

トップに戻ります
OR