AIリーダーがAGIを議論:現実に基づく

サンフランシスコでの最近のビジネスリーダーとのディナーで、私は部屋を凍りつかせるような質問を投げかけました:今日のAIは、人間のような知能、あるいはそれを超える知能に到達できるでしょうか?これは予想以上に議論を呼ぶトピックです。
2025年、テック企業のCEOたちは、ChatGPTやGeminiの背後にあるような大規模言語モデル(LLMs)について楽観的な話題で盛り上がっています。彼らはこれらのモデルがまもなく人間の知能レベル、さらには超人的な知能に到達できると確信しています。例えば、AnthropicのDario Amodeiは、2026年までにはさまざまな分野でノーベル賞受賞者よりも賢いAIが見られるかもしれないとエッセイに書いています。一方、OpenAIのSam Altmanは、「超知能」AIの構築方法を知っていると公言し、それが科学的発見を加速させると予測しています。
しかし、誰もがこの楽観的な見方に賛同しているわけではありません。一部のAIリーダーは、LLMsがAGI(汎用人工知能)に到達すること、さらには超知能に到達することに対して、大きなブレークスルーなしには難しいと懐疑的です。これまで静かだったこれらの懐疑派が、今、声を上げ始めています。
AIコミュニティの懐疑論
Hugging Faceの共同創業者兼主任科学者であるThomas Wolfを例に挙げましょう。彼は最近の記事で、Amodeiのビジョンの一部を「せいぜい希望的観測」と呼びました。統計物理学と量子物理学の博士号を持つWolfは、ノーベル賞レベルのブレークスルーは新しい質問をすることから生まれ、既知の質問に答えるだけではないと主張します。AIは既知の質問に答えるのは得意ですが、新しいアイデアを開拓することには優れていないと彼は考えています。
「私はこの『アインシュタインモデル』が実現するのを見たいですが、そこに至る方法の詳細に踏み込む必要があります」と、WolfはTechCrunchとのインタビューで語りました。彼はAGIをめぐる誇大広告が、その達成方法についての真剣な議論を覆い隠していると感じ、記事を書いたのです。WolfはAIが世界を変革する未来を見ていますが、それが必ずしも人間の知能レベルや超知能に到達する未来ではないと考えています。
AIコミュニティは、AGIを信じる人と信じない人にしばしば分かれ、後者は「反技術的」または単に悲観的とレッテルを貼られることがあります。しかし、Wolfは自分を「情報に基づいた楽観主義者」と考え、AIの進歩を推進しつつ現実的であることを重視しています。
AI議論の他の声
Google DeepMindのCEO、Demis Hassabisは、AGIはまだ10年先かもしれないとチームに語り、AIがまだ処理できない多くのタスクを指摘したとされています。Metaの主任AI科学者であるYann LeCunも、LLMsがAGIを達成するという考えをNvidia GTCで「ナンセンス」と呼び、超知能を支える新しいアーキテクチャの必要性を訴えています。
元OpenAIのリード研究者で、現在Lila Sciencesの幹部であるKenneth Stanleyは、高度なAIの構築に取り組んでいます。彼のスタートアップは最近2億ドルを調達し、科学的イノベーションの自動化に注力しています。Stanleyの研究は、AIが独創的で創造的なアイデアを生み出す能力、つまり「オープンエンド性」として知られる分野に深く関わっています。
「私は[Wolfの]エッセイを書きたかったような気がします。なぜならそれは本当に私の気持ちを反映しているからです」と、StanleyはTechCrunchに語りました。彼は、知識があることが自動的に独創的なアイデアにつながるわけではないというWolfの意見に同意しています。
AIにおける創造性の役割
Stanleyは、創造性がAGIにとって重要だと信じていますが、それを達成するのは難しいと認めています。Amodeiのような楽観主義者がAIの「推論」モデルをAGIへの一歩と強調する一方、Stanleyは創造性には異なる種類の知能が必要だと主張します。「推論は[創造性]とほぼ対極にあります」と彼は説明しました。「推論モデルは特定の目標に到達することに焦点を当て、創造性に必要な機会主義的な思考を制限する可能性があります。」
Stanleyは、真に知的なAIを構築するには、新しいアイデアに対する人間のセンスをアルゴリズム的に再現する必要があると提案しています。AIは数学やプログラミングのような、答えが明確な分野では優れていますが、「正しい」答えがない主観的で創造的なタスクには苦戦します。
「科学では[主観性]を避ける傾向があります。その言葉はほぼ毒のようなものです」とStanleyは指摘しました。「しかし、アルゴリズム的に主観性を扱うことを妨げるものはありません。それはデータストリームの一部にすぎません。」
彼は、Lila Sciences、Google DeepMind、AIスタートアップSakanaなどの研究ラボでオープンエンド性への注目が高まっていることに励まされています。Stanleyは、AIにおける創造性について語る人が増えているのを見ていますが、まだ多くの課題が残っていると考えています。
AIの現実主義者
WolfとLeCunは「AIの現実主義者」と見なされるかもしれません。AGIや超知能の実現可能性について、現実的な質問を投げかけるリーダーたちです。彼らの目的はAIの進歩を否定することではなく、AIがAGIや超知能に到達するのを妨げている課題について幅広い議論を呼び起こし、それに正面から取り組むことです。
関連記事
OpenAIが非営利のルーツを再確認、主要な企業再編の中で
OpenAIは、倫理的なAI開発へのコミットメントと成長のバランスを取りながら、大きな企業再編を進め、非営利のミッションに揺るぎなく取り組んでいます。CEOのサム・アルトマンは、会社のビジョンを概説し、財務戦略が進化している一方で、人工汎用知能(AGI)をグローバルな利益のために進めるOpenAIの献身は変わらないと強調しました。公開声明で、アルトマンは次のように述べました:「OpenAIは従来の
AIリーダーがAGIを議論:現実に基づく
サンフランシスコのビジネスリーダーとの最近の夕食会で、私は一つの質問を投げかけました。それは、現在のAIが人間のような知能、またはそれ以上に達することができるかというもので、場が凍りついたようでした。これは思いのほか多くの議論を呼び起こすトピックです。2025年、テックCEOたちはChatGPTやGeminiの背後にあるような大規模言語モデル(LLM)につい
Openai Strikes Back:AIの競合他社を損なう努力の疑いでElon Muskを訴える
Openaiは、共同設立者のElon Muskと彼の競合するAI会社Xaiに対する激しい法的反撃を開始しました。彼らの進行中の確執の劇的なエスカレーションにおいて、Openaiは、マスクが「容赦のない」キャンペーンを行って、彼が開始した会社を弱体化させると非難しています。裁判所dによると
コメント (7)
0/200
RichardHarris
2025年8月3日 0:07:14 JST
That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.
0
FrankJackson
2025年7月28日 10:19:30 JST
This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!
0
MarkRoberts
2025年5月11日 7:50:03 JST
La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.
0
CharlesRoberts
2025年5月11日 3:06:40 JST
A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.
0
StevenNelson
2025年5月10日 22:16:38 JST
AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。
0
RalphSanchez
2025年5月10日 19:08:18 JST
AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.
0
サンフランシスコでの最近のビジネスリーダーとのディナーで、私は部屋を凍りつかせるような質問を投げかけました:今日のAIは、人間のような知能、あるいはそれを超える知能に到達できるでしょうか?これは予想以上に議論を呼ぶトピックです。
2025年、テック企業のCEOたちは、ChatGPTやGeminiの背後にあるような大規模言語モデル(LLMs)について楽観的な話題で盛り上がっています。彼らはこれらのモデルがまもなく人間の知能レベル、さらには超人的な知能に到達できると確信しています。例えば、AnthropicのDario Amodeiは、2026年までにはさまざまな分野でノーベル賞受賞者よりも賢いAIが見られるかもしれないとエッセイに書いています。一方、OpenAIのSam Altmanは、「超知能」AIの構築方法を知っていると公言し、それが科学的発見を加速させると予測しています。
しかし、誰もがこの楽観的な見方に賛同しているわけではありません。一部のAIリーダーは、LLMsがAGI(汎用人工知能)に到達すること、さらには超知能に到達することに対して、大きなブレークスルーなしには難しいと懐疑的です。これまで静かだったこれらの懐疑派が、今、声を上げ始めています。
AIコミュニティの懐疑論
Hugging Faceの共同創業者兼主任科学者であるThomas Wolfを例に挙げましょう。彼は最近の記事で、Amodeiのビジョンの一部を「せいぜい希望的観測」と呼びました。統計物理学と量子物理学の博士号を持つWolfは、ノーベル賞レベルのブレークスルーは新しい質問をすることから生まれ、既知の質問に答えるだけではないと主張します。AIは既知の質問に答えるのは得意ですが、新しいアイデアを開拓することには優れていないと彼は考えています。
「私はこの『アインシュタインモデル』が実現するのを見たいですが、そこに至る方法の詳細に踏み込む必要があります」と、WolfはTechCrunchとのインタビューで語りました。彼はAGIをめぐる誇大広告が、その達成方法についての真剣な議論を覆い隠していると感じ、記事を書いたのです。WolfはAIが世界を変革する未来を見ていますが、それが必ずしも人間の知能レベルや超知能に到達する未来ではないと考えています。
AIコミュニティは、AGIを信じる人と信じない人にしばしば分かれ、後者は「反技術的」または単に悲観的とレッテルを貼られることがあります。しかし、Wolfは自分を「情報に基づいた楽観主義者」と考え、AIの進歩を推進しつつ現実的であることを重視しています。
AI議論の他の声
Google DeepMindのCEO、Demis Hassabisは、AGIはまだ10年先かもしれないとチームに語り、AIがまだ処理できない多くのタスクを指摘したとされています。Metaの主任AI科学者であるYann LeCunも、LLMsがAGIを達成するという考えをNvidia GTCで「ナンセンス」と呼び、超知能を支える新しいアーキテクチャの必要性を訴えています。
元OpenAIのリード研究者で、現在Lila Sciencesの幹部であるKenneth Stanleyは、高度なAIの構築に取り組んでいます。彼のスタートアップは最近2億ドルを調達し、科学的イノベーションの自動化に注力しています。Stanleyの研究は、AIが独創的で創造的なアイデアを生み出す能力、つまり「オープンエンド性」として知られる分野に深く関わっています。
「私は[Wolfの]エッセイを書きたかったような気がします。なぜならそれは本当に私の気持ちを反映しているからです」と、StanleyはTechCrunchに語りました。彼は、知識があることが自動的に独創的なアイデアにつながるわけではないというWolfの意見に同意しています。
AIにおける創造性の役割
Stanleyは、創造性がAGIにとって重要だと信じていますが、それを達成するのは難しいと認めています。Amodeiのような楽観主義者がAIの「推論」モデルをAGIへの一歩と強調する一方、Stanleyは創造性には異なる種類の知能が必要だと主張します。「推論は[創造性]とほぼ対極にあります」と彼は説明しました。「推論モデルは特定の目標に到達することに焦点を当て、創造性に必要な機会主義的な思考を制限する可能性があります。」
Stanleyは、真に知的なAIを構築するには、新しいアイデアに対する人間のセンスをアルゴリズム的に再現する必要があると提案しています。AIは数学やプログラミングのような、答えが明確な分野では優れていますが、「正しい」答えがない主観的で創造的なタスクには苦戦します。
「科学では[主観性]を避ける傾向があります。その言葉はほぼ毒のようなものです」とStanleyは指摘しました。「しかし、アルゴリズム的に主観性を扱うことを妨げるものはありません。それはデータストリームの一部にすぎません。」
彼は、Lila Sciences、Google DeepMind、AIスタートアップSakanaなどの研究ラボでオープンエンド性への注目が高まっていることに励まされています。Stanleyは、AIにおける創造性について語る人が増えているのを見ていますが、まだ多くの課題が残っていると考えています。
AIの現実主義者
WolfとLeCunは「AIの現実主義者」と見なされるかもしれません。AGIや超知能の実現可能性について、現実的な質問を投げかけるリーダーたちです。彼らの目的はAIの進歩を否定することではなく、AIがAGIや超知能に到達するのを妨げている課題について幅広い議論を呼び起こし、それに正面から取り組むことです。


That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.




This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!




La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.




A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.




AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。




AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.












