KI-Führer diskutieren AGI: Geerdet in der Realität

Bei einem kürzlichen Abendessen mit Wirtschaftsführern in San Francisco stellte ich eine Frage, die den Raum zum Schweigen brachte: Könnte die heutige KI jemals menschenähnliche Intelligenz oder darüber hinaus erreichen? Es ist ein Thema, das mehr Diskussionen auslöst, als man erwarten könnte.
Im Jahr 2025 sind Tech-CEOs voller Optimismus über große Sprachmodelle (LLMs) wie die hinter ChatGPT und Gemini. Sie sind überzeugt, dass diese Modelle bald menschliche oder sogar übermenschliche Intelligenz erreichen könnten. Nehmen wir zum Beispiel Dario Amodei von Anthropic. Er hat Essays verfasst, in denen er andeutet, dass wir bis 2026 KI sehen könnten, die klüger ist als Nobelpreisträger in verschiedenen Bereichen. In der Zwischenzeit hat Sam Altman von OpenAI lautstark erklärt, dass er wisse, wie man „superintelligente“ KI bauen könne, und prognostiziert, dass sie wissenschaftliche Entdeckungen beschleunigen könnte.
Aber nicht jeder teilt dieses rosige Bild. Einige KI-Führer sind skeptisch, ob LLMs AGI erreichen, geschweige denn Superintelligenz, ohne bedeutende Durchbrüche. Diese Skeptiker, einst still, äußern sich nun mehr.
Skeptizismus in der KI-Community
Nehmen wir Thomas Wolf, Mitbegründer und Chief Science Officer bei Hugging Face. In einem kürzlichen Artikel nannte er Teile von Amodeis Vision „Wunschdenken im besten Fall“. Mit seinem Doktortitel in statistischer und Quantenphysik argumentiert Wolf, dass Nobelpreis-würdige Durchbrüche daraus resultieren, neue Fragen zu stellen, nicht nur bekannte zu beantworten – etwas, bei dem KI gut ist, aber nicht hervorragend darin, neue Ideen zu entwickeln.
„Ich würde gerne dieses ‚Einstein-Modell‘ sehen, aber wir müssen uns mit den Details beschäftigen, wie wir dorthin gelangen“, teilte Wolf in einem Interview mit TechCrunch mit. Er schrieb seinen Artikel, weil er das Gefühl hatte, dass der Hype um AGI die Notwendigkeit einer ernsten Diskussion darüber, wie man sie erreicht, überschattet. Wolf sieht eine Zukunft, in der KI die Welt verändert, aber nicht unbedingt eine, in der sie menschliche Intelligenz oder Superintelligenz erreicht.
Die KI-Community ist oft gespalten zwischen denen, die an AGI glauben, und denen, die es nicht tun, wobei Letztere manchmal als „technologiefeindlich“ oder einfach pessimistisch bezeichnet werden. Wolf jedoch sieht sich selbst als „informierten Optimisten“, der für den Fortschritt der KI eintritt, aber in der Realität verankert bleibt.
Weitere Stimmen in der KI-Debatte
Demis Hassabis, CEO von Google DeepMind, soll seinem Team gesagt haben, dass AGI noch ein Jahrzehnt entfernt sein könnte, und wies auf die vielen Aufgaben hin, die KI noch nicht bewältigen kann. Yann LeCun, Chief AI Scientist bei Meta, hat ebenfalls Zweifel geäußert, ob LLMs AGI erreichen können, und nannte die Idee auf der Nvidia GTC „Unsinn“, während er für neue Architekturen plädiert, um Superintelligenz zu untermauern.
Kenneth Stanley, ehemaliger leitender Forscher bei OpenAI und jetzt Führungskraft bei Lila Sciences, arbeitet an den Details des Baus fortschrittlicher KI. Sein Startup, das kürzlich 200 Millionen Dollar eingesammelt hat, konzentriert sich auf die Automatisierung wissenschaftlicher Innovationen. Stanleys Arbeit befasst sich mit der Fähigkeit der KI, originelle, kreative Ideen zu generieren – ein Bereich, der als Offenheit bekannt ist.
„Ich wünschte irgendwie, ich hätte [Wolfs] Essay geschrieben, denn er spiegelt wirklich meine Gefühle wider“, sagte Stanley gegenüber TechCrunch. Er stimmt Wolf zu, dass Wissen nicht automatisch zu originellen Ideen führt.
Die Rolle der Kreativität in der KI
Stanley glaubt, dass Kreativität entscheidend für AGI ist, gibt aber zu, dass es eine harte Nuss ist. Während Optimisten wie Amodei KI-„Denk“-Modelle als Schritt in Richtung AGI hervorheben, argumentiert Stanley, dass Kreativität eine andere Art von Intelligenz erfordert. „Denken ist fast gegensätzlich zu [Kreativität]“, erklärte er. „Denkmodelle konzentrieren sich darauf, ein bestimmtes Ziel zu erreichen, was die Art von opportunistischem Denken einschränken kann, die für Kreativität benötigt wird.“
Stanley schlägt vor, dass wir, um wirklich intelligente KI zu bauen, menschlichen Geschmack für neue Ideen algorithmisch nachbilden müssen. Während KI in Bereichen wie Mathematik und Programmierung glänzt, wo Antworten klar sind, hat sie Schwierigkeiten mit subjektiveren, kreativen Aufgaben, die keine „richtige“ Antwort haben.
„Die Leute scheuen in der Wissenschaft vor [Subjektivität] zurück – das Wort ist fast giftig“, bemerkte Stanley. „Aber es gibt nichts, was uns daran hindert, algorithmisch mit Subjektivität umzugehen. Es ist nur Teil des Datenstroms.“
Er ist ermutigt durch den wachsenden Fokus auf Offenheit, mit Forschungslabors bei Lila Sciences, Google DeepMind und dem KI-Startup Sakana, die sich mit dem Thema beschäftigen. Stanley sieht, dass mehr Menschen über Kreativität in der KI sprechen, glaubt aber, dass noch viel Arbeit vor uns liegt.
Die Realisten der KI
Wolf und LeCun könnten als „KI-Realisten“ betrachtet werden: Führungskräfte, die AGI und Superintelligenz mit fundierten Fragen nach ihrer Machbarkeit angehen. Ihr Ziel ist es nicht, KI-Fortschritte abzutun, sondern eine breitere Diskussion darüber anzustoßen, was die KI davon abhält, AGI und Superintelligenz zu erreichen – und diese Herausforderungen direkt anzugehen.
Verwandter Artikel
OpenAI bekräftigt gemeinnützige Wurzeln in großer Unternehmensumstrukturierung
OpenAI bleibt seiner gemeinnützigen Mission treu, während es eine bedeutende Unternehmensumstrukturierung durchläuft und Wachstum mit dem Engagement für ethische KI-Entwicklung in Einklang bringt.CEO
KI-Führer diskutieren AGI: Geerdet in der Realität
Bei einem kürzlichen Abendessen mit Geschäftsführern in San Francisco stellte ich eine Frage, die den Raum förmlich zum Erstarren brachte: Könnte die heutige KI jemals die Intellig
OpenAI -Streik zurück: verklagt Elon Musk wegen mutmaßlicher Bemühungen, den AI -Konkurrenten zu untergraben
OpenAI hat einen heftigen Rechtsangriff gegen seinen Mitbegründer Elon Musk und seine konkurrierende KI-Firma XAI gestartet. In einer dramatischen Eskalation ihrer anhaltenden Fehde beschuldigt OpenAI Musk, eine "unerbittliche" und "bösartige" Kampagne durchzuführen, um das Unternehmen zu untergraben, das er beibehalten hat. Nach Gericht d
Kommentare (7)
0/200
RichardHarris
2. August 2025 17:07:14 MESZ
That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.
0
FrankJackson
28. Juli 2025 03:19:30 MESZ
This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!
0
MarkRoberts
11. Mai 2025 00:50:03 MESZ
La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.
0
CharlesRoberts
10. Mai 2025 20:06:40 MESZ
A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.
0
StevenNelson
10. Mai 2025 15:16:38 MESZ
AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。
0
RalphSanchez
10. Mai 2025 12:08:18 MESZ
AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.
0
Bei einem kürzlichen Abendessen mit Wirtschaftsführern in San Francisco stellte ich eine Frage, die den Raum zum Schweigen brachte: Könnte die heutige KI jemals menschenähnliche Intelligenz oder darüber hinaus erreichen? Es ist ein Thema, das mehr Diskussionen auslöst, als man erwarten könnte.
Im Jahr 2025 sind Tech-CEOs voller Optimismus über große Sprachmodelle (LLMs) wie die hinter ChatGPT und Gemini. Sie sind überzeugt, dass diese Modelle bald menschliche oder sogar übermenschliche Intelligenz erreichen könnten. Nehmen wir zum Beispiel Dario Amodei von Anthropic. Er hat Essays verfasst, in denen er andeutet, dass wir bis 2026 KI sehen könnten, die klüger ist als Nobelpreisträger in verschiedenen Bereichen. In der Zwischenzeit hat Sam Altman von OpenAI lautstark erklärt, dass er wisse, wie man „superintelligente“ KI bauen könne, und prognostiziert, dass sie wissenschaftliche Entdeckungen beschleunigen könnte.
Aber nicht jeder teilt dieses rosige Bild. Einige KI-Führer sind skeptisch, ob LLMs AGI erreichen, geschweige denn Superintelligenz, ohne bedeutende Durchbrüche. Diese Skeptiker, einst still, äußern sich nun mehr.
Skeptizismus in der KI-Community
Nehmen wir Thomas Wolf, Mitbegründer und Chief Science Officer bei Hugging Face. In einem kürzlichen Artikel nannte er Teile von Amodeis Vision „Wunschdenken im besten Fall“. Mit seinem Doktortitel in statistischer und Quantenphysik argumentiert Wolf, dass Nobelpreis-würdige Durchbrüche daraus resultieren, neue Fragen zu stellen, nicht nur bekannte zu beantworten – etwas, bei dem KI gut ist, aber nicht hervorragend darin, neue Ideen zu entwickeln.
„Ich würde gerne dieses ‚Einstein-Modell‘ sehen, aber wir müssen uns mit den Details beschäftigen, wie wir dorthin gelangen“, teilte Wolf in einem Interview mit TechCrunch mit. Er schrieb seinen Artikel, weil er das Gefühl hatte, dass der Hype um AGI die Notwendigkeit einer ernsten Diskussion darüber, wie man sie erreicht, überschattet. Wolf sieht eine Zukunft, in der KI die Welt verändert, aber nicht unbedingt eine, in der sie menschliche Intelligenz oder Superintelligenz erreicht.
Die KI-Community ist oft gespalten zwischen denen, die an AGI glauben, und denen, die es nicht tun, wobei Letztere manchmal als „technologiefeindlich“ oder einfach pessimistisch bezeichnet werden. Wolf jedoch sieht sich selbst als „informierten Optimisten“, der für den Fortschritt der KI eintritt, aber in der Realität verankert bleibt.
Weitere Stimmen in der KI-Debatte
Demis Hassabis, CEO von Google DeepMind, soll seinem Team gesagt haben, dass AGI noch ein Jahrzehnt entfernt sein könnte, und wies auf die vielen Aufgaben hin, die KI noch nicht bewältigen kann. Yann LeCun, Chief AI Scientist bei Meta, hat ebenfalls Zweifel geäußert, ob LLMs AGI erreichen können, und nannte die Idee auf der Nvidia GTC „Unsinn“, während er für neue Architekturen plädiert, um Superintelligenz zu untermauern.
Kenneth Stanley, ehemaliger leitender Forscher bei OpenAI und jetzt Führungskraft bei Lila Sciences, arbeitet an den Details des Baus fortschrittlicher KI. Sein Startup, das kürzlich 200 Millionen Dollar eingesammelt hat, konzentriert sich auf die Automatisierung wissenschaftlicher Innovationen. Stanleys Arbeit befasst sich mit der Fähigkeit der KI, originelle, kreative Ideen zu generieren – ein Bereich, der als Offenheit bekannt ist.
„Ich wünschte irgendwie, ich hätte [Wolfs] Essay geschrieben, denn er spiegelt wirklich meine Gefühle wider“, sagte Stanley gegenüber TechCrunch. Er stimmt Wolf zu, dass Wissen nicht automatisch zu originellen Ideen führt.
Die Rolle der Kreativität in der KI
Stanley glaubt, dass Kreativität entscheidend für AGI ist, gibt aber zu, dass es eine harte Nuss ist. Während Optimisten wie Amodei KI-„Denk“-Modelle als Schritt in Richtung AGI hervorheben, argumentiert Stanley, dass Kreativität eine andere Art von Intelligenz erfordert. „Denken ist fast gegensätzlich zu [Kreativität]“, erklärte er. „Denkmodelle konzentrieren sich darauf, ein bestimmtes Ziel zu erreichen, was die Art von opportunistischem Denken einschränken kann, die für Kreativität benötigt wird.“
Stanley schlägt vor, dass wir, um wirklich intelligente KI zu bauen, menschlichen Geschmack für neue Ideen algorithmisch nachbilden müssen. Während KI in Bereichen wie Mathematik und Programmierung glänzt, wo Antworten klar sind, hat sie Schwierigkeiten mit subjektiveren, kreativen Aufgaben, die keine „richtige“ Antwort haben.
„Die Leute scheuen in der Wissenschaft vor [Subjektivität] zurück – das Wort ist fast giftig“, bemerkte Stanley. „Aber es gibt nichts, was uns daran hindert, algorithmisch mit Subjektivität umzugehen. Es ist nur Teil des Datenstroms.“
Er ist ermutigt durch den wachsenden Fokus auf Offenheit, mit Forschungslabors bei Lila Sciences, Google DeepMind und dem KI-Startup Sakana, die sich mit dem Thema beschäftigen. Stanley sieht, dass mehr Menschen über Kreativität in der KI sprechen, glaubt aber, dass noch viel Arbeit vor uns liegt.
Die Realisten der KI
Wolf und LeCun könnten als „KI-Realisten“ betrachtet werden: Führungskräfte, die AGI und Superintelligenz mit fundierten Fragen nach ihrer Machbarkeit angehen. Ihr Ziel ist es nicht, KI-Fortschritte abzutun, sondern eine breitere Diskussion darüber anzustoßen, was die KI davon abhält, AGI und Superintelligenz zu erreichen – und diese Herausforderungen direkt anzugehen.


That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.




This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!




La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.




A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.




AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。




AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.












