KI-Führer diskutieren AGI: Geerdet in der Realität

Bei einem kürzlichen Abendessen mit Geschäftsführern in San Francisco stellte ich eine Frage, die den Raum förmlich zum Erstarren brachte: Könnte die heutige KI jemals die Intelligenz von Menschen erreichen oder übertreffen? Es ist ein Thema, das mehr Debatten auslöst, als man vielleicht erwartet.
Im Jahr 2025 sind Tech-CEOs voller Optimismus über große Sprachmodelle (LLMs) wie die hinter ChatGPT und Gemini. Sie sind überzeugt, dass diese Modelle bald die Intelligenz von Menschen oder sogar übermenschliche Intelligenz erreichen könnten. Nehmen wir zum Beispiel Dario Amodei von Anthropic. Er hat Essays geschrieben, in denen er andeutet, dass wir bis 2026 KI sehen könnten, die in verschiedenen Bereichen intelligenter ist als Nobelpreisträger. Währenddessen hat Sam Altman von OpenAI offen darüber gesprochen, wie man "superintelligente" KI bauen kann und vorhergesagt, dass dies die wissenschaftliche Entdeckung ankurbeln könnte.
Doch nicht alle kaufen dieses rosige Bild. Einige KI-Führer sind skeptisch, ob LLMs AGI erreichen können, geschweige denn Superintelligenz, ohne bedeutende Durchbrüche. Diese Skeptiker, einst still, sprechen sich jetzt häufiger aus.
Skepsis in der KI-Community
Nehmen wir Thomas Wolf, Mitbegründer und Chefwissenschaftler bei Hugging Face. In einem kürzlichen Artikel nannte er Teile von Amodeis Vision "wunschdenken, bestenfalls". Basierend auf seinem PhD in statistischer und Quantenphysik argumentiert Wolf, dass Nobelpreis-würdige Durchbrüche aus neuen Fragen resultieren, nicht nur aus der Beantwortung bekannter Fragen – etwas, worin KI gut ist, aber nicht großartig, um neue Ideen zu pionieren.
"Ich würde gerne dieses 'Einstein-Modell' sehen, aber wir müssen in die Details eintauchen, wie wir dorthin gelangen", teilte Wolf in einem Interview mit TechCrunch. Er schrieb seinen Artikel, weil er fühlte, dass der Hype um AGI die Notwendigkeit für eine ernsthafte Diskussion darüber überschattete, wie man sie erreichen kann. Wolf sieht eine Zukunft, in der KI die Welt verändert, aber nicht unbedingt eine, in der sie die Intelligenz von Menschen oder Superintelligenz erreicht.
Die KI-Community ist oft gespalten zwischen denen, die an AGI glauben, und denen, die es nicht tun, wobei die Letzteren manchmal als "technikfeindlich" oder einfach pessimistisch bezeichnet werden. Wolf jedoch betrachtet sich selbst als "informierten Optimisten", der den Fortschritt der KI vorantreibt, aber gleichzeitig in der Realität verankert bleibt.
Andere Stimmen im KI-Debatte
Demis Hassabis, CEO von Google DeepMind, soll seinem Team gesagt haben, dass AGI noch ein Jahrzehnt entfernt sein könnte, und wies auf die vielen Aufgaben hin, die KI noch nicht bewältigen kann. Yann LeCun, Chef-KI-Wissenschaftler bei Meta, hat ebenfalls Zweifel an der Fähigkeit von LLMs geäußert, AGI zu erreichen, und die Idee auf der Nvidia GTC als "Unsinn" bezeichnet und neue Architekturen gefordert, um Superintelligenz zu untermauern.
Kenneth Stanley, ehemaliger leitender Forscher bei OpenAI und jetzt Geschäftsführer bei Lila Sciences, arbeitet an den Details des Aufbaus fortschrittlicher KI. Sein Start-up, das kürzlich 200 Millionen Dollar gesammelt hat, konzentriert sich auf die Automatisierung wissenschaftlicher Innovation. Stanleys Arbeit erforscht die Fähigkeit der KI, originelle, kreative Ideen zu generieren – ein Bereich, der als Open-Endedness bekannt ist.
"Ich wünschte, ich hätte [Wolfs] Essay geschrieben, weil er wirklich meine Gefühle widerspiegelt", sagte Stanley zu TechCrunch. Er stimmt mit Wolf überein, dass Wissen nicht automatisch zu originellen Ideen führt.
Die Rolle der Kreativität in der KI
Stanley glaubt, dass Kreativität entscheidend für AGI ist, gibt aber zu, dass es eine harte Nuss ist. Während Optimisten wie Amodei auf KI-"Vernunft"-Modelle als Schritt in Richtung AGI hinweisen, argumentiert Stanley, dass Kreativität eine andere Art von Intelligenz erfordert. "Vernunft ist fast das Gegenteil von [Kreativität]", erklärte er. "Vernunftmodelle konzentrieren sich darauf, ein spezifisches Ziel zu erreichen, was die Art von opportunistischem Denken einschränken kann, das für Kreativität erforderlich ist."
Stanley schlägt vor, dass wir, um wirklich intelligente KI zu bauen, den menschlichen Geschmack für neue Ideen algorithmisch nachbilden müssen. Während KI in Bereichen wie Mathematik und Programmierung, wo die Antworten klar sind, glänzt, hat sie Schwierigkeiten mit subjektiveren, kreativen Aufgaben, die keine "richtige" Antwort haben.
"Die Menschen weichen in der Wissenschaft von [Subjektivität] zurück – das Wort ist fast toxisch", bemerkte Stanley. "Aber es gibt nichts, was uns daran hindert, Subjektivität [algorithmisch] zu behandeln. Es ist einfach Teil des Datenstroms."
Er ist ermutigt durch den wachsenden Fokus auf Open-Endedness, mit Forschungslaboren bei Lila Sciences, Google DeepMind und dem KI-Start-up Sakana, die das Thema angehen. Stanley sieht mehr Menschen über Kreativität in der KI sprechen, glaubt aber, dass noch viel Arbeit vor uns liegt.
Die Realisten der KI
Wolf und LeCun könnten als die "KI-Realisten" betrachtet werden: Führer, die AGI und Superintelligenz mit geerdeten Fragen über ihre Machbarkeit angehen. Ihr Ziel ist es nicht, Fortschritte in der KI abzulehnen, sondern ein breiteres Gespräch darüber anzuregen, was die KI daran hindert, AGI und Superintelligenz zu erreichen – und diese Herausforderungen direkt anzugehen.
Verwandter Artikel
AI領導者討論AGI:基於現實
在最近一次與舊金山商業領袖的晚餐上,我提出了一個似乎讓現場冷場的問題:今天的人工智能是否能達到或超越人類的智能?這是一個比你預期的更能引發爭議的話題。到了2025年,科技CEO們對像ChatGPT和Gemini背後的大型語言模型(LLM)充滿了樂觀情緒。他們相信這些模型很快就能達到人類級別甚至超人類的智能。以Anthropic的Dario Amodei為例,
Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手
Openai對其聯合創始人Elon Musk及其競爭的AI公司Xai發起了激烈的法律反擊。在他們正在進行的爭執的戲劇性升級中,Openai指責馬斯克發動了一場“無情”和“惡意”運動,破壞了他幫助創辦的公司。根據法院D
加速回報定律解釋了:AGI開發途徑
在最近的一次採訪中,埃隆·馬斯克(Elon Musk)分享了他對人工通用情報(AGI)的時間表的樂觀觀點(AGI),並指出它可能是 *“ 3至6年” *。同樣,Google DeepMind的首席執行官Demis Hassabis在《華爾街日報》的《一切事物》上表達了
Kommentare (5)
0/200
ElijahWalker
9. Mai 2025 00:00:00 GMT
The AI Leaders discussion on AGI was eye-opening. It grounded the conversation in reality, which is refreshing. Some of the points made were thought-provoking, though I wish there was more depth in certain areas. Overall, it was a solid talk with valuable insights.
0
StevenNelson
10. Mai 2025 00:00:00 GMT
AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。
0
RalphSanchez
10. Mai 2025 00:00:00 GMT
AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.
0
CharlesRoberts
11. Mai 2025 00:00:00 GMT
A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.
0
MarkRoberts
11. Mai 2025 00:00:00 GMT
La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.
0
Bei einem kürzlichen Abendessen mit Geschäftsführern in San Francisco stellte ich eine Frage, die den Raum förmlich zum Erstarren brachte: Könnte die heutige KI jemals die Intelligenz von Menschen erreichen oder übertreffen? Es ist ein Thema, das mehr Debatten auslöst, als man vielleicht erwartet.
Im Jahr 2025 sind Tech-CEOs voller Optimismus über große Sprachmodelle (LLMs) wie die hinter ChatGPT und Gemini. Sie sind überzeugt, dass diese Modelle bald die Intelligenz von Menschen oder sogar übermenschliche Intelligenz erreichen könnten. Nehmen wir zum Beispiel Dario Amodei von Anthropic. Er hat Essays geschrieben, in denen er andeutet, dass wir bis 2026 KI sehen könnten, die in verschiedenen Bereichen intelligenter ist als Nobelpreisträger. Währenddessen hat Sam Altman von OpenAI offen darüber gesprochen, wie man "superintelligente" KI bauen kann und vorhergesagt, dass dies die wissenschaftliche Entdeckung ankurbeln könnte.
Doch nicht alle kaufen dieses rosige Bild. Einige KI-Führer sind skeptisch, ob LLMs AGI erreichen können, geschweige denn Superintelligenz, ohne bedeutende Durchbrüche. Diese Skeptiker, einst still, sprechen sich jetzt häufiger aus.
Skepsis in der KI-Community
Nehmen wir Thomas Wolf, Mitbegründer und Chefwissenschaftler bei Hugging Face. In einem kürzlichen Artikel nannte er Teile von Amodeis Vision "wunschdenken, bestenfalls". Basierend auf seinem PhD in statistischer und Quantenphysik argumentiert Wolf, dass Nobelpreis-würdige Durchbrüche aus neuen Fragen resultieren, nicht nur aus der Beantwortung bekannter Fragen – etwas, worin KI gut ist, aber nicht großartig, um neue Ideen zu pionieren.
"Ich würde gerne dieses 'Einstein-Modell' sehen, aber wir müssen in die Details eintauchen, wie wir dorthin gelangen", teilte Wolf in einem Interview mit TechCrunch. Er schrieb seinen Artikel, weil er fühlte, dass der Hype um AGI die Notwendigkeit für eine ernsthafte Diskussion darüber überschattete, wie man sie erreichen kann. Wolf sieht eine Zukunft, in der KI die Welt verändert, aber nicht unbedingt eine, in der sie die Intelligenz von Menschen oder Superintelligenz erreicht.
Die KI-Community ist oft gespalten zwischen denen, die an AGI glauben, und denen, die es nicht tun, wobei die Letzteren manchmal als "technikfeindlich" oder einfach pessimistisch bezeichnet werden. Wolf jedoch betrachtet sich selbst als "informierten Optimisten", der den Fortschritt der KI vorantreibt, aber gleichzeitig in der Realität verankert bleibt.
Andere Stimmen im KI-Debatte
Demis Hassabis, CEO von Google DeepMind, soll seinem Team gesagt haben, dass AGI noch ein Jahrzehnt entfernt sein könnte, und wies auf die vielen Aufgaben hin, die KI noch nicht bewältigen kann. Yann LeCun, Chef-KI-Wissenschaftler bei Meta, hat ebenfalls Zweifel an der Fähigkeit von LLMs geäußert, AGI zu erreichen, und die Idee auf der Nvidia GTC als "Unsinn" bezeichnet und neue Architekturen gefordert, um Superintelligenz zu untermauern.
Kenneth Stanley, ehemaliger leitender Forscher bei OpenAI und jetzt Geschäftsführer bei Lila Sciences, arbeitet an den Details des Aufbaus fortschrittlicher KI. Sein Start-up, das kürzlich 200 Millionen Dollar gesammelt hat, konzentriert sich auf die Automatisierung wissenschaftlicher Innovation. Stanleys Arbeit erforscht die Fähigkeit der KI, originelle, kreative Ideen zu generieren – ein Bereich, der als Open-Endedness bekannt ist.
"Ich wünschte, ich hätte [Wolfs] Essay geschrieben, weil er wirklich meine Gefühle widerspiegelt", sagte Stanley zu TechCrunch. Er stimmt mit Wolf überein, dass Wissen nicht automatisch zu originellen Ideen führt.
Die Rolle der Kreativität in der KI
Stanley glaubt, dass Kreativität entscheidend für AGI ist, gibt aber zu, dass es eine harte Nuss ist. Während Optimisten wie Amodei auf KI-"Vernunft"-Modelle als Schritt in Richtung AGI hinweisen, argumentiert Stanley, dass Kreativität eine andere Art von Intelligenz erfordert. "Vernunft ist fast das Gegenteil von [Kreativität]", erklärte er. "Vernunftmodelle konzentrieren sich darauf, ein spezifisches Ziel zu erreichen, was die Art von opportunistischem Denken einschränken kann, das für Kreativität erforderlich ist."
Stanley schlägt vor, dass wir, um wirklich intelligente KI zu bauen, den menschlichen Geschmack für neue Ideen algorithmisch nachbilden müssen. Während KI in Bereichen wie Mathematik und Programmierung, wo die Antworten klar sind, glänzt, hat sie Schwierigkeiten mit subjektiveren, kreativen Aufgaben, die keine "richtige" Antwort haben.
"Die Menschen weichen in der Wissenschaft von [Subjektivität] zurück – das Wort ist fast toxisch", bemerkte Stanley. "Aber es gibt nichts, was uns daran hindert, Subjektivität [algorithmisch] zu behandeln. Es ist einfach Teil des Datenstroms."
Er ist ermutigt durch den wachsenden Fokus auf Open-Endedness, mit Forschungslaboren bei Lila Sciences, Google DeepMind und dem KI-Start-up Sakana, die das Thema angehen. Stanley sieht mehr Menschen über Kreativität in der KI sprechen, glaubt aber, dass noch viel Arbeit vor uns liegt.
Die Realisten der KI
Wolf und LeCun könnten als die "KI-Realisten" betrachtet werden: Führer, die AGI und Superintelligenz mit geerdeten Fragen über ihre Machbarkeit angehen. Ihr Ziel ist es nicht, Fortschritte in der KI abzulehnen, sondern ein breiteres Gespräch darüber anzuregen, was die KI daran hindert, AGI und Superintelligenz zu erreichen – und diese Herausforderungen direkt anzugehen.



The AI Leaders discussion on AGI was eye-opening. It grounded the conversation in reality, which is refreshing. Some of the points made were thought-provoking, though I wish there was more depth in certain areas. Overall, it was a solid talk with valuable insights.




AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。




AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.




A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.




La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.












