エリック・シュミットはアギ・マンハッタンプロジェクトに反対します

水曜日に発表された政策文書において、元Google CEOのエリック・シュミット、Scale AI CEOのアレクサンドル・ワン、Center for AI Safetyディレクターのダン・ヘンドリックスは、米国が「超人的」知能を持つAIシステム、いわゆるAGI(人工汎用知能)を開発するためのマンハッタン計画のようなイニシアチブを立ち上げることに反対する助言を行った。
「超知能戦略」と題されたこの文書は、米国が超知能AIを独占しようとする取り組みは、中国からの強い反発を招き、サイバー攻撃の形で現れる可能性があり、グローバルな関係を混乱させるかもしれないと警告している。
共著者らは、「AGIのためのマンハッタン計画は、競争相手が永続的な不均衡や全滅を受け入れるのではなく、それを防ぐために行動を起こすと仮定している。超兵器とグローバルな支配を目指す動きは、敵対的な対抗措置や緊張の高まりを引き起こすリスクがあり、戦略が確保しようとする安定性を損なう」と主張している。
米国のAIセクターの3人の重要人物によって書かれたこの文書は、米議会の委員会が1940年代の米国の原子爆弾プロジェクトに例えてAGI開発を資金提供する「マンハッタン計画式」のイニシアチブを提案した直後に発表された。米エネルギー長官クリス・ライトは最近、OpenAI共同創業者のグレッグ・ブロックマンと共にスーパーコンピューター施設で、米国がAIにおける「新たなマンハッタン計画の始まり」にいると宣言した。
超知能戦略文書は、中国に追いつくために政府支援のAGIプログラムが最善の方法だと考える米国の政策および業界リーダー数名による最近の推進に異議を唱えている。
シュミット、ワン、ヘンドリックスは、米国がAGIを巡る対立状況にあり、相互確証破壊の概念に似ていると見ている。各国が先制攻撃を防ぐために核兵器の独占を避けるのと同じように、著者らは米国が高性能AIシステムの支配を急ぐことに慎重であるべきだと提案している。
AIを核兵器に例えるのは大げさに思えるかもしれないが、グローバルリーダーはすでにAIを重要な軍事資産と見なしている。ペンタゴンは、AIが軍のキルチェーンを加速させていると指摘している。
著者らは、相互確証AI不具合(MAIM)の概念を導入し、政府が敵対者がAGIを兵器化するのを待つよりも、脅威となるAIプロジェクトを無効化するために先制行動を取る可能性があると述べている。
シュミット、ワン、ヘンドリックスは、米国が「超知能へのレースに勝つ」ことよりも、他国が超知能AIを開発するのを抑止する方法を開発することに焦点を移すべきだと推奨している。彼らは、政府が「他国が管理する脅威的なAIプロジェクトを無効化するためのサイバー攻撃の手段を拡大し」、先進的なAIチップやオープンソースモデルへの敵対者のアクセスを制限すべきだと提案している。
この文書は、AI政策コミュニティにおける「悲観論者(ドゥーマー)」と「楽観論者(オストリッチ)」の分裂を浮き彫りにしている。悲観論者はAIの壊滅的な結果が避けられないと信じ、AIの進展を遅らせることを主張し、楽観論者はAI開発を加速させ、最善を望む。
著者らは第三の道を提案している:防御戦略を重視したAGI開発への慎重なアプローチである。
この立場は、以前に米国がAI開発で中国と積極的に競争する必要性を強調していたシュミットにとって特に注目に値する。数か月前、シュミットはDeepSeekが米国と中国のAIレースにおける重要な瞬間を示すと述べた論説を書いた。
トランプ政権が米国のAI開発を進める決意を示しているにもかかわらず、共著者らは、米国のAGIに関する決定がグローバルな影響を持つことを思い出させている。
世界が米国のAIへの推進を注視する中、シュミットと共著者らは、より防御的な戦略が賢明な選択かもしれないと示唆している。
関連記事
Manus、ウェブスクレイピングのための100以上のエージェントを備えたAIツール「Wide Research」を発表
中国のAIイノベーターであるManusは、コンシューマーとプロフェッショナルの両方に対応する先駆的なマルチエージェント・オーケストレーション・プラットフォームで注目を集めたが、従来のAI研究アプローチに挑戦する同社の技術の画期的なアプリケーションを発表した。AIを活用した研究の再考OpenAI、Google、xAIのような競合他社は、詳細なレポートを作成するために何時間も調査を行うことができる特別
非営利団体、AIエージェントを活用してチャリティ募金活動を強化
大手テック企業がAIの "エージェント "をビジネスの生産性向上剤として推進する一方で、ある非営利団体はAIが社会的利益に貢献する可能性を実証している。オープン・フィランソロピーが支援する慈善研究グループ、セージ・フューチャーは最近、AIモデルが慈善活動の資金調達にどのように協力できるかを示す革新的な実験を行った。この非営利団体は、OpenAIのGPT-4oとo1、AnthropicのClau
トップAI研究所は、人類はAIシステムを理解する力を失いつつあると警告する
OpenAI、Google DeepMind、Anthropic、Metaの研究者は、前例のない団結を示し、競争上の相違を脇に置いて、責任あるAI開発について集団で警告を発した。これらの通常ライバル関係にある組織から40人以上の一流の科学者が、AIの意思決定プロセスの透明性を確保するための窓が急速に狭まっていることを強調する画期的な研究論文を共同執筆した。この共同研究は、現代のAIシステムにおける
コメント (28)
0/200
WillieLee
2025年8月23日 10:01:25 JST
Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the AI race, right? 🐢
0
PaulLewis
2025年7月28日 10:19:30 JST
Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔
0
PeterRodriguez
2025年7月23日 13:59:47 JST
Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?
0
BruceSmith
2025年4月21日 2:32:22 JST
La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔
0
MichaelDavis
2025年4月19日 3:29:08 JST
A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚
0
MiaDavis
2025年4月19日 1:24:42 JST
에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚
0
水曜日に発表された政策文書において、元Google CEOのエリック・シュミット、Scale AI CEOのアレクサンドル・ワン、Center for AI Safetyディレクターのダン・ヘンドリックスは、米国が「超人的」知能を持つAIシステム、いわゆるAGI(人工汎用知能)を開発するためのマンハッタン計画のようなイニシアチブを立ち上げることに反対する助言を行った。
「超知能戦略」と題されたこの文書は、米国が超知能AIを独占しようとする取り組みは、中国からの強い反発を招き、サイバー攻撃の形で現れる可能性があり、グローバルな関係を混乱させるかもしれないと警告している。
共著者らは、「AGIのためのマンハッタン計画は、競争相手が永続的な不均衡や全滅を受け入れるのではなく、それを防ぐために行動を起こすと仮定している。超兵器とグローバルな支配を目指す動きは、敵対的な対抗措置や緊張の高まりを引き起こすリスクがあり、戦略が確保しようとする安定性を損なう」と主張している。
米国のAIセクターの3人の重要人物によって書かれたこの文書は、米議会の委員会が1940年代の米国の原子爆弾プロジェクトに例えてAGI開発を資金提供する「マンハッタン計画式」のイニシアチブを提案した直後に発表された。米エネルギー長官クリス・ライトは最近、OpenAI共同創業者のグレッグ・ブロックマンと共にスーパーコンピューター施設で、米国がAIにおける「新たなマンハッタン計画の始まり」にいると宣言した。
超知能戦略文書は、中国に追いつくために政府支援のAGIプログラムが最善の方法だと考える米国の政策および業界リーダー数名による最近の推進に異議を唱えている。
シュミット、ワン、ヘンドリックスは、米国がAGIを巡る対立状況にあり、相互確証破壊の概念に似ていると見ている。各国が先制攻撃を防ぐために核兵器の独占を避けるのと同じように、著者らは米国が高性能AIシステムの支配を急ぐことに慎重であるべきだと提案している。
AIを核兵器に例えるのは大げさに思えるかもしれないが、グローバルリーダーはすでにAIを重要な軍事資産と見なしている。ペンタゴンは、AIが軍のキルチェーンを加速させていると指摘している。
著者らは、相互確証AI不具合(MAIM)の概念を導入し、政府が敵対者がAGIを兵器化するのを待つよりも、脅威となるAIプロジェクトを無効化するために先制行動を取る可能性があると述べている。
シュミット、ワン、ヘンドリックスは、米国が「超知能へのレースに勝つ」ことよりも、他国が超知能AIを開発するのを抑止する方法を開発することに焦点を移すべきだと推奨している。彼らは、政府が「他国が管理する脅威的なAIプロジェクトを無効化するためのサイバー攻撃の手段を拡大し」、先進的なAIチップやオープンソースモデルへの敵対者のアクセスを制限すべきだと提案している。
この文書は、AI政策コミュニティにおける「悲観論者(ドゥーマー)」と「楽観論者(オストリッチ)」の分裂を浮き彫りにしている。悲観論者はAIの壊滅的な結果が避けられないと信じ、AIの進展を遅らせることを主張し、楽観論者はAI開発を加速させ、最善を望む。
著者らは第三の道を提案している:防御戦略を重視したAGI開発への慎重なアプローチである。
この立場は、以前に米国がAI開発で中国と積極的に競争する必要性を強調していたシュミットにとって特に注目に値する。数か月前、シュミットはDeepSeekが米国と中国のAIレースにおける重要な瞬間を示すと述べた論説を書いた。
トランプ政権が米国のAI開発を進める決意を示しているにもかかわらず、共著者らは、米国のAGIに関する決定がグローバルな影響を持つことを思い出させている。
世界が米国のAIへの推進を注視する中、シュミットと共著者らは、より防御的な戦略が賢明な選択かもしれないと示唆している。




Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the AI race, right? 🐢




Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔




Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?




La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔




A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚




에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚












