KI-Führer diskutieren AGI: Geerdet in der Realität
9. Mai 2025
DanielThomas
0

Bei einem kürzlichen Abendessen mit Geschäftsführern in San Francisco stellte ich eine Frage, die den Raum förmlich zum Erstarren brachte: Könnte die heutige KI jemals die Intelligenz von Menschen erreichen oder übertreffen? Es ist ein Thema, das mehr Debatten auslöst, als man vielleicht erwartet.
Im Jahr 2025 sind Tech-CEOs voller Optimismus über große Sprachmodelle (LLMs) wie die hinter ChatGPT und Gemini. Sie sind überzeugt, dass diese Modelle bald die Intelligenz von Menschen oder sogar übermenschliche Intelligenz erreichen könnten. Nehmen wir zum Beispiel Dario Amodei von Anthropic. Er hat Essays geschrieben, in denen er andeutet, dass wir bis 2026 KI sehen könnten, die in verschiedenen Bereichen intelligenter ist als Nobelpreisträger. Währenddessen hat Sam Altman von OpenAI offen darüber gesprochen, wie man "superintelligente" KI bauen kann und vorhergesagt, dass dies die wissenschaftliche Entdeckung ankurbeln könnte.
Doch nicht alle kaufen dieses rosige Bild. Einige KI-Führer sind skeptisch, ob LLMs AGI erreichen können, geschweige denn Superintelligenz, ohne bedeutende Durchbrüche. Diese Skeptiker, einst still, sprechen sich jetzt häufiger aus.
Skepsis in der KI-Community
Nehmen wir Thomas Wolf, Mitbegründer und Chefwissenschaftler bei Hugging Face. In einem kürzlichen Artikel nannte er Teile von Amodeis Vision "wunschdenken, bestenfalls". Basierend auf seinem PhD in statistischer und Quantenphysik argumentiert Wolf, dass Nobelpreis-würdige Durchbrüche aus neuen Fragen resultieren, nicht nur aus der Beantwortung bekannter Fragen – etwas, worin KI gut ist, aber nicht großartig, um neue Ideen zu pionieren.
"Ich würde gerne dieses 'Einstein-Modell' sehen, aber wir müssen in die Details eintauchen, wie wir dorthin gelangen", teilte Wolf in einem Interview mit TechCrunch. Er schrieb seinen Artikel, weil er fühlte, dass der Hype um AGI die Notwendigkeit für eine ernsthafte Diskussion darüber überschattete, wie man sie erreichen kann. Wolf sieht eine Zukunft, in der KI die Welt verändert, aber nicht unbedingt eine, in der sie die Intelligenz von Menschen oder Superintelligenz erreicht.
Die KI-Community ist oft gespalten zwischen denen, die an AGI glauben, und denen, die es nicht tun, wobei die Letzteren manchmal als "technikfeindlich" oder einfach pessimistisch bezeichnet werden. Wolf jedoch betrachtet sich selbst als "informierten Optimisten", der den Fortschritt der KI vorantreibt, aber gleichzeitig in der Realität verankert bleibt.
Andere Stimmen im KI-Debatte
Demis Hassabis, CEO von Google DeepMind, soll seinem Team gesagt haben, dass AGI noch ein Jahrzehnt entfernt sein könnte, und wies auf die vielen Aufgaben hin, die KI noch nicht bewältigen kann. Yann LeCun, Chef-KI-Wissenschaftler bei Meta, hat ebenfalls Zweifel an der Fähigkeit von LLMs geäußert, AGI zu erreichen, und die Idee auf der Nvidia GTC als "Unsinn" bezeichnet und neue Architekturen gefordert, um Superintelligenz zu untermauern.
Kenneth Stanley, ehemaliger leitender Forscher bei OpenAI und jetzt Geschäftsführer bei Lila Sciences, arbeitet an den Details des Aufbaus fortschrittlicher KI. Sein Start-up, das kürzlich 200 Millionen Dollar gesammelt hat, konzentriert sich auf die Automatisierung wissenschaftlicher Innovation. Stanleys Arbeit erforscht die Fähigkeit der KI, originelle, kreative Ideen zu generieren – ein Bereich, der als Open-Endedness bekannt ist.
"Ich wünschte, ich hätte [Wolfs] Essay geschrieben, weil er wirklich meine Gefühle widerspiegelt", sagte Stanley zu TechCrunch. Er stimmt mit Wolf überein, dass Wissen nicht automatisch zu originellen Ideen führt.
Die Rolle der Kreativität in der KI
Stanley glaubt, dass Kreativität entscheidend für AGI ist, gibt aber zu, dass es eine harte Nuss ist. Während Optimisten wie Amodei auf KI-"Vernunft"-Modelle als Schritt in Richtung AGI hinweisen, argumentiert Stanley, dass Kreativität eine andere Art von Intelligenz erfordert. "Vernunft ist fast das Gegenteil von [Kreativität]", erklärte er. "Vernunftmodelle konzentrieren sich darauf, ein spezifisches Ziel zu erreichen, was die Art von opportunistischem Denken einschränken kann, das für Kreativität erforderlich ist."
Stanley schlägt vor, dass wir, um wirklich intelligente KI zu bauen, den menschlichen Geschmack für neue Ideen algorithmisch nachbilden müssen. Während KI in Bereichen wie Mathematik und Programmierung, wo die Antworten klar sind, glänzt, hat sie Schwierigkeiten mit subjektiveren, kreativen Aufgaben, die keine "richtige" Antwort haben.
"Die Menschen weichen in der Wissenschaft von [Subjektivität] zurück – das Wort ist fast toxisch", bemerkte Stanley. "Aber es gibt nichts, was uns daran hindert, Subjektivität [algorithmisch] zu behandeln. Es ist einfach Teil des Datenstroms."
Er ist ermutigt durch den wachsenden Fokus auf Open-Endedness, mit Forschungslaboren bei Lila Sciences, Google DeepMind und dem KI-Start-up Sakana, die das Thema angehen. Stanley sieht mehr Menschen über Kreativität in der KI sprechen, glaubt aber, dass noch viel Arbeit vor uns liegt.
Die Realisten der KI
Wolf und LeCun könnten als die "KI-Realisten" betrachtet werden: Führer, die AGI und Superintelligenz mit geerdeten Fragen über ihre Machbarkeit angehen. Ihr Ziel ist es nicht, Fortschritte in der KI abzulehnen, sondern ein breiteres Gespräch darüber anzuregen, was die KI daran hindert, AGI und Superintelligenz zu erreichen – und diese Herausforderungen direkt anzugehen.
Verwandter Artikel
OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor
OpenAI has launched a fierce legal counterattack against its co-founder, Elon Musk, and his competing AI company, xAI. In a dramatic escalation of their ongoing feud, OpenAI accuses Musk of waging a "relentless" and "malicious" campaign to undermine the company he helped start.
According to court d
Law of Accelerating Returns Explained: Pathway to AGI Development
In a recent interview, Elon Musk shared his optimistic view on the timeline for the advent of Artificial General Intelligence (AGI), stating it could be as soon as *“3 to 6 years”*. Similarly, Demis Hassabis, CEO of Google's DeepMind, expressed at The Wall Street Journal’s Future of Everything Festi
New AGI Test Proves Challenging, Stumps Majority of AI Models
The Arc Prize Foundation, co-founded by renowned AI researcher François Chollet, recently unveiled a new benchmark called ARC-AGI-2 in a blog post. This test aims to push the boundaries of AI's general intelligence, and so far, it's proving to be a tough nut to crack for most AI models.According to
Kommentare (0)
0/200






Bei einem kürzlichen Abendessen mit Geschäftsführern in San Francisco stellte ich eine Frage, die den Raum förmlich zum Erstarren brachte: Könnte die heutige KI jemals die Intelligenz von Menschen erreichen oder übertreffen? Es ist ein Thema, das mehr Debatten auslöst, als man vielleicht erwartet.
Im Jahr 2025 sind Tech-CEOs voller Optimismus über große Sprachmodelle (LLMs) wie die hinter ChatGPT und Gemini. Sie sind überzeugt, dass diese Modelle bald die Intelligenz von Menschen oder sogar übermenschliche Intelligenz erreichen könnten. Nehmen wir zum Beispiel Dario Amodei von Anthropic. Er hat Essays geschrieben, in denen er andeutet, dass wir bis 2026 KI sehen könnten, die in verschiedenen Bereichen intelligenter ist als Nobelpreisträger. Währenddessen hat Sam Altman von OpenAI offen darüber gesprochen, wie man "superintelligente" KI bauen kann und vorhergesagt, dass dies die wissenschaftliche Entdeckung ankurbeln könnte.
Doch nicht alle kaufen dieses rosige Bild. Einige KI-Führer sind skeptisch, ob LLMs AGI erreichen können, geschweige denn Superintelligenz, ohne bedeutende Durchbrüche. Diese Skeptiker, einst still, sprechen sich jetzt häufiger aus.
Skepsis in der KI-Community
Nehmen wir Thomas Wolf, Mitbegründer und Chefwissenschaftler bei Hugging Face. In einem kürzlichen Artikel nannte er Teile von Amodeis Vision "wunschdenken, bestenfalls". Basierend auf seinem PhD in statistischer und Quantenphysik argumentiert Wolf, dass Nobelpreis-würdige Durchbrüche aus neuen Fragen resultieren, nicht nur aus der Beantwortung bekannter Fragen – etwas, worin KI gut ist, aber nicht großartig, um neue Ideen zu pionieren.
"Ich würde gerne dieses 'Einstein-Modell' sehen, aber wir müssen in die Details eintauchen, wie wir dorthin gelangen", teilte Wolf in einem Interview mit TechCrunch. Er schrieb seinen Artikel, weil er fühlte, dass der Hype um AGI die Notwendigkeit für eine ernsthafte Diskussion darüber überschattete, wie man sie erreichen kann. Wolf sieht eine Zukunft, in der KI die Welt verändert, aber nicht unbedingt eine, in der sie die Intelligenz von Menschen oder Superintelligenz erreicht.
Die KI-Community ist oft gespalten zwischen denen, die an AGI glauben, und denen, die es nicht tun, wobei die Letzteren manchmal als "technikfeindlich" oder einfach pessimistisch bezeichnet werden. Wolf jedoch betrachtet sich selbst als "informierten Optimisten", der den Fortschritt der KI vorantreibt, aber gleichzeitig in der Realität verankert bleibt.
Andere Stimmen im KI-Debatte
Demis Hassabis, CEO von Google DeepMind, soll seinem Team gesagt haben, dass AGI noch ein Jahrzehnt entfernt sein könnte, und wies auf die vielen Aufgaben hin, die KI noch nicht bewältigen kann. Yann LeCun, Chef-KI-Wissenschaftler bei Meta, hat ebenfalls Zweifel an der Fähigkeit von LLMs geäußert, AGI zu erreichen, und die Idee auf der Nvidia GTC als "Unsinn" bezeichnet und neue Architekturen gefordert, um Superintelligenz zu untermauern.
Kenneth Stanley, ehemaliger leitender Forscher bei OpenAI und jetzt Geschäftsführer bei Lila Sciences, arbeitet an den Details des Aufbaus fortschrittlicher KI. Sein Start-up, das kürzlich 200 Millionen Dollar gesammelt hat, konzentriert sich auf die Automatisierung wissenschaftlicher Innovation. Stanleys Arbeit erforscht die Fähigkeit der KI, originelle, kreative Ideen zu generieren – ein Bereich, der als Open-Endedness bekannt ist.
"Ich wünschte, ich hätte [Wolfs] Essay geschrieben, weil er wirklich meine Gefühle widerspiegelt", sagte Stanley zu TechCrunch. Er stimmt mit Wolf überein, dass Wissen nicht automatisch zu originellen Ideen führt.
Die Rolle der Kreativität in der KI
Stanley glaubt, dass Kreativität entscheidend für AGI ist, gibt aber zu, dass es eine harte Nuss ist. Während Optimisten wie Amodei auf KI-"Vernunft"-Modelle als Schritt in Richtung AGI hinweisen, argumentiert Stanley, dass Kreativität eine andere Art von Intelligenz erfordert. "Vernunft ist fast das Gegenteil von [Kreativität]", erklärte er. "Vernunftmodelle konzentrieren sich darauf, ein spezifisches Ziel zu erreichen, was die Art von opportunistischem Denken einschränken kann, das für Kreativität erforderlich ist."
Stanley schlägt vor, dass wir, um wirklich intelligente KI zu bauen, den menschlichen Geschmack für neue Ideen algorithmisch nachbilden müssen. Während KI in Bereichen wie Mathematik und Programmierung, wo die Antworten klar sind, glänzt, hat sie Schwierigkeiten mit subjektiveren, kreativen Aufgaben, die keine "richtige" Antwort haben.
"Die Menschen weichen in der Wissenschaft von [Subjektivität] zurück – das Wort ist fast toxisch", bemerkte Stanley. "Aber es gibt nichts, was uns daran hindert, Subjektivität [algorithmisch] zu behandeln. Es ist einfach Teil des Datenstroms."
Er ist ermutigt durch den wachsenden Fokus auf Open-Endedness, mit Forschungslaboren bei Lila Sciences, Google DeepMind und dem KI-Start-up Sakana, die das Thema angehen. Stanley sieht mehr Menschen über Kreativität in der KI sprechen, glaubt aber, dass noch viel Arbeit vor uns liegt.
Die Realisten der KI
Wolf und LeCun könnten als die "KI-Realisten" betrachtet werden: Führer, die AGI und Superintelligenz mit geerdeten Fragen über ihre Machbarkeit angehen. Ihr Ziel ist es nicht, Fortschritte in der KI abzulehnen, sondern ein breiteres Gespräch darüber anzuregen, was die KI daran hindert, AGI und Superintelligenz zu erreichen – und diese Herausforderungen direkt anzugehen.











