AIリーダーがAGIを議論:現実に基づく

サンフランシスコのビジネスリーダーとの最近の夕食会で、私は一つの質問を投げかけました。それは、現在のAIが人間のような知能、またはそれ以上に達することができるかというもので、場が凍りついたようでした。これは思いのほか多くの議論を呼び起こすトピックです。
2025年、テックCEOたちはChatGPTやGeminiの背後にあるような大規模言語モデル(LLM)について楽観的な見方をしています。彼らはこれらのモデルがすぐに人間のレベル、または超人的な知能に達する可能性があると確信しています。例えば、AnthropicのDario Amodeiは、2026年までにさまざまな分野でノーベル賞受賞者よりも賢いAIを見るかもしれないと提案するエッセイを書いています。一方、OpenAIのSam Altmanは、「超知能」AIを構築する方法を知っていると公言しており、それが科学的発見を加速させる可能性があると予測しています。
しかし、この楽観的な見方に全員が賛成しているわけではありません。いくつかのAIリーダーは、LLMがAGIに到達すること、ましてや超知能に達することについて、重大なブレークスルーがない限り懐疑的です。これらの懐疑派はかつては静かでしたが、今ではますます声を上げています。
AIコミュニティの懐疑論
Hugging Faceの共同創業者兼チーフサイエンスオフィサーのThomas Wolfを例にとってみましょう。彼は最近の記事で、Amodeiのビジョンの一部のことを「せいぜい願望思考」と呼びました。統計および量子物理学のPhDを持つWolfは、ノーベル賞レベルのブレークスルーは新たな質問をすることから来るもので、既知の質問に答えるだけでは得られないと主張します。これはAIが得意とするところですが、新しいアイデアの先駆者となるためにはそれほど優れていません。
「この『アインシュタインモデル』が出てくるのを見たいと思いますが、そこに到達するための詳細に深く掘り下げる必要があります」とWolfはTechCrunchのインタビューで述べました。彼がその記事を書いたのは、AGIに関する誇大宣伝が、それを達成するための真剣な議論を覆い隠していると感じたからです。Wolfは、AIが世界を変える未来を思い描いていますが、それが必ずしも人間の知能レベルや超知能に達するわけではないと考えています。
AIコミュニティは、AGIを信じる人々と信じない人々に分かれており、後者は「反テクノロジー」または単に悲観的であるとラベル付けされることがあります。しかし、Wolfは自分を「情報に基づいた楽観主義者」と考え、AIの進歩を推進しながら現実に基づいて行動しています。
AI論争の他の声
Google DeepMindのCEO、Demis Hassabisは、AGIがまだ10年は先であるとチームに伝えたと報じられています。彼は、AIがまだ扱えない多くのタスクを指摘しています。MetaのチーフAIサイエンティスト、Yann LeCunも、LLMがAGIを達成することについて懐疑的で、Nvidia GTCでその考えを「ナンセンス」と呼び、超知能を支えるための新しいアーキテクチャの必要性を訴えています。
元OpenAIのリードリサーチャーで、現在はLila SciencesのエグゼクティブであるKenneth Stanleyは、高度なAIを構築するための具体的な作業に取り組んでいます。彼のスタートアップは最近2億ドルの資金を調達し、科学的イノベーションの自動化に焦点を当てています。Stanleyの仕事は、AIがオリジナルで創造的なアイデアを生成する能力、オープンエンドネスと呼ばれる分野に深く関わっています。
「Wolfのエッセイを書きたかったですね、それは本当に私の気持ちを反映しています」とStanleyはTechCrunchに語りました。彼は、知識豊富であることが自動的にオリジナルなアイデアにつながるわけではないというWolfの意見に同意しています。
AIにおける創造性の役割
Stanleyは、AGIにとって創造性が重要であると信じていますが、それが難しい問題であることを認めています。Amodeiのような楽観主義者は、AIの「推論」モデルがAGIへの一歩であると強調していますが、Stanleyは創造性には異なる種類の知能が必要だと主張します。「推論は創造性にほとんど反します」と彼は説明します。「推論モデルは特定の目標に到達することに焦点を当てており、それが創造性に必要な機会主義的な思考を制限する可能性があります」。
Stanleyは、真に知的なAIを構築するためには、新しいアイデアへの人間の嗜好をアルゴリズム的に再現する必要があると提案しています。AIは数学やプログラミングなどの分野では優れていますが、そこには明確な答えがあります。しかし、より主観的で創造的なタスク、つまり「正しい」答えがないタスクについては苦労しています。
「人々は科学における主観性から逃げます——その言葉はほとんど毒です」とStanleyは述べました。「しかし、主観性をアルゴリズム的に扱うことを妨げるものは何もありません。それは単にデータストリームの一部です」。
彼は、Lila Sciences、Google DeepMind、AIスタートアップのSakanaなどの研究ラボがオープンエンドネスにますます注目していることに励まされています。Stanleyは、AIにおける創造性について話す人が増えていると見ていますが、まだ多くの仕事が待っていると考えています。
AIの現実主義者
WolfとLeCunは「AIの現実主義者」と見なされるかもしれません:AGIと超知能の実現可能性について現実的な質問を投げかけるリーダーたち。彼らの目標は、AIの進歩を否定することではなく、AIがAGIや超知能に到達することを妨げているものについてより広範な議論を引き起こし、それらの課題に直接取り組むことです。
関連記事
AI領導者討論AGI:基於現實
在最近一次與舊金山商業領袖的晚餐上,我提出了一個似乎讓現場冷場的問題:今天的人工智能是否能達到或超越人類的智能?這是一個比你預期的更能引發爭議的話題。到了2025年,科技CEO們對像ChatGPT和Gemini背後的大型語言模型(LLM)充滿了樂觀情緒。他們相信這些模型很快就能達到人類級別甚至超人類的智能。以Anthropic的Dario Amodei為例,
Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手
Openai對其聯合創始人Elon Musk及其競爭的AI公司Xai發起了激烈的法律反擊。在他們正在進行的爭執的戲劇性升級中,Openai指責馬斯克發動了一場“無情”和“惡意”運動,破壞了他幫助創辦的公司。根據法院D
加速回報定律解釋了:AGI開發途徑
在最近的一次採訪中,埃隆·馬斯克(Elon Musk)分享了他對人工通用情報(AGI)的時間表的樂觀觀點(AGI),並指出它可能是 *“ 3至6年” *。同樣,Google DeepMind的首席執行官Demis Hassabis在《華爾街日報》的《一切事物》上表達了
コメント (5)
0/200
ElijahWalker
2025年5月9日 0:00:00 GMT
The AI Leaders discussion on AGI was eye-opening. It grounded the conversation in reality, which is refreshing. Some of the points made were thought-provoking, though I wish there was more depth in certain areas. Overall, it was a solid talk with valuable insights.
0
StevenNelson
2025年5月10日 0:00:00 GMT
AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。
0
RalphSanchez
2025年5月10日 0:00:00 GMT
AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.
0
CharlesRoberts
2025年5月11日 0:00:00 GMT
A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.
0
MarkRoberts
2025年5月11日 0:00:00 GMT
La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.
0
サンフランシスコのビジネスリーダーとの最近の夕食会で、私は一つの質問を投げかけました。それは、現在のAIが人間のような知能、またはそれ以上に達することができるかというもので、場が凍りついたようでした。これは思いのほか多くの議論を呼び起こすトピックです。
2025年、テックCEOたちはChatGPTやGeminiの背後にあるような大規模言語モデル(LLM)について楽観的な見方をしています。彼らはこれらのモデルがすぐに人間のレベル、または超人的な知能に達する可能性があると確信しています。例えば、AnthropicのDario Amodeiは、2026年までにさまざまな分野でノーベル賞受賞者よりも賢いAIを見るかもしれないと提案するエッセイを書いています。一方、OpenAIのSam Altmanは、「超知能」AIを構築する方法を知っていると公言しており、それが科学的発見を加速させる可能性があると予測しています。
しかし、この楽観的な見方に全員が賛成しているわけではありません。いくつかのAIリーダーは、LLMがAGIに到達すること、ましてや超知能に達することについて、重大なブレークスルーがない限り懐疑的です。これらの懐疑派はかつては静かでしたが、今ではますます声を上げています。
AIコミュニティの懐疑論
Hugging Faceの共同創業者兼チーフサイエンスオフィサーのThomas Wolfを例にとってみましょう。彼は最近の記事で、Amodeiのビジョンの一部のことを「せいぜい願望思考」と呼びました。統計および量子物理学のPhDを持つWolfは、ノーベル賞レベルのブレークスルーは新たな質問をすることから来るもので、既知の質問に答えるだけでは得られないと主張します。これはAIが得意とするところですが、新しいアイデアの先駆者となるためにはそれほど優れていません。
「この『アインシュタインモデル』が出てくるのを見たいと思いますが、そこに到達するための詳細に深く掘り下げる必要があります」とWolfはTechCrunchのインタビューで述べました。彼がその記事を書いたのは、AGIに関する誇大宣伝が、それを達成するための真剣な議論を覆い隠していると感じたからです。Wolfは、AIが世界を変える未来を思い描いていますが、それが必ずしも人間の知能レベルや超知能に達するわけではないと考えています。
AIコミュニティは、AGIを信じる人々と信じない人々に分かれており、後者は「反テクノロジー」または単に悲観的であるとラベル付けされることがあります。しかし、Wolfは自分を「情報に基づいた楽観主義者」と考え、AIの進歩を推進しながら現実に基づいて行動しています。
AI論争の他の声
Google DeepMindのCEO、Demis Hassabisは、AGIがまだ10年は先であるとチームに伝えたと報じられています。彼は、AIがまだ扱えない多くのタスクを指摘しています。MetaのチーフAIサイエンティスト、Yann LeCunも、LLMがAGIを達成することについて懐疑的で、Nvidia GTCでその考えを「ナンセンス」と呼び、超知能を支えるための新しいアーキテクチャの必要性を訴えています。
元OpenAIのリードリサーチャーで、現在はLila SciencesのエグゼクティブであるKenneth Stanleyは、高度なAIを構築するための具体的な作業に取り組んでいます。彼のスタートアップは最近2億ドルの資金を調達し、科学的イノベーションの自動化に焦点を当てています。Stanleyの仕事は、AIがオリジナルで創造的なアイデアを生成する能力、オープンエンドネスと呼ばれる分野に深く関わっています。
「Wolfのエッセイを書きたかったですね、それは本当に私の気持ちを反映しています」とStanleyはTechCrunchに語りました。彼は、知識豊富であることが自動的にオリジナルなアイデアにつながるわけではないというWolfの意見に同意しています。
AIにおける創造性の役割
Stanleyは、AGIにとって創造性が重要であると信じていますが、それが難しい問題であることを認めています。Amodeiのような楽観主義者は、AIの「推論」モデルがAGIへの一歩であると強調していますが、Stanleyは創造性には異なる種類の知能が必要だと主張します。「推論は創造性にほとんど反します」と彼は説明します。「推論モデルは特定の目標に到達することに焦点を当てており、それが創造性に必要な機会主義的な思考を制限する可能性があります」。
Stanleyは、真に知的なAIを構築するためには、新しいアイデアへの人間の嗜好をアルゴリズム的に再現する必要があると提案しています。AIは数学やプログラミングなどの分野では優れていますが、そこには明確な答えがあります。しかし、より主観的で創造的なタスク、つまり「正しい」答えがないタスクについては苦労しています。
「人々は科学における主観性から逃げます——その言葉はほとんど毒です」とStanleyは述べました。「しかし、主観性をアルゴリズム的に扱うことを妨げるものは何もありません。それは単にデータストリームの一部です」。
彼は、Lila Sciences、Google DeepMind、AIスタートアップのSakanaなどの研究ラボがオープンエンドネスにますます注目していることに励まされています。Stanleyは、AIにおける創造性について話す人が増えていると見ていますが、まだ多くの仕事が待っていると考えています。
AIの現実主義者
WolfとLeCunは「AIの現実主義者」と見なされるかもしれません:AGIと超知能の実現可能性について現実的な質問を投げかけるリーダーたち。彼らの目標は、AIの進歩を否定することではなく、AIがAGIや超知能に到達することを妨げているものについてより広範な議論を引き起こし、それらの課題に直接取り組むことです。



The AI Leaders discussion on AGI was eye-opening. It grounded the conversation in reality, which is refreshing. Some of the points made were thought-provoking, though I wish there was more depth in certain areas. Overall, it was a solid talk with valuable insights.




AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。




AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.




A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.




La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.












