Les leaders de l'IA discutent de l'AGI : Ancrés dans la réalité

Lors d’un récent dîner avec des dirigeants d’entreprise à San Francisco, j’ai posé une question qui semblait figer la salle : l’IA d’aujourd’hui pourrait-elle un jour atteindre une intelligence de niveau humain ou au-delà ? C’est un sujet qui suscite plus de débats qu’on ne pourrait l’imaginer.
En 2025, les PDG du secteur technologique sont pleins d’optimisme concernant les grands modèles de langage (LLMs) comme ceux qui alimentent ChatGPT et Gemini. Ils sont convaincus que ces modèles pourraient bientôt atteindre une intelligence de niveau humain, voire surhumaine. Prenez par exemple Dario Amodei d’Anthropic. Il a rédigé des essais suggérant que d’ici 2026, nous pourrions voir une IA plus intelligente que les lauréats du prix Nobel dans divers domaines. Pendant ce temps, Sam Altman d’OpenAI s’est exprimé publiquement sur la manière de construire une IA « superintelligente », prédisant qu’elle pourrait accélérer considérablement les découvertes scientifiques.
Mais tout le monde n’adhère pas à ce tableau optimiste. Certains leaders de l’IA sont sceptiques quant à la capacité des LLMs à atteindre l’AGI, sans parler de la superintelligence, sans percées significatives. Ces sceptiques, autrefois discrets, s’expriment désormais davantage.
Scepticisme dans la communauté de l’IA
Prenez Thomas Wolf, co-fondateur et directeur scientifique de Hugging Face. Dans un article récent, il a qualifié certaines parties de la vision d’Amodei de « vœu pieux au mieux ». S’appuyant sur son doctorat en physique statistique et quantique, Wolf soutient que les percées de niveau Nobel proviennent de la capacité à poser de nouvelles questions, et pas seulement à répondre à celles connues — une tâche dans laquelle l’IA excelle, mais qui n’est pas idéale pour ouvrir de nouvelles perspectives.
« J’aimerais voir ce ‘modèle Einstein’ exister, mais nous devons nous pencher sur les détails de comment y parvenir », a partagé Wolf dans une interview avec TechCrunch. Il a écrit cet article parce qu’il estimait que l’engouement autour de l’AGI éclipsait la nécessité d’une discussion sérieuse sur la manière de l’atteindre. Wolf envisage un avenir où l’IA transforme le monde, mais pas nécessairement un monde où elle atteint une intelligence de niveau humain ou une superintelligence.
La communauté de l’IA est souvent divisée entre ceux qui croient en l’AGI et ceux qui n’y croient pas, ces derniers étant parfois qualifiés d’« anti-technologie » ou simplement de pessimistes. Wolf, cependant, se considère comme un « optimiste éclairé », prônant l’avancement de l’IA tout en restant ancré dans la réalité.
Autres voix dans le débat sur l’IA
Le PDG de Google DeepMind, Demis Hassabis, aurait déclaré à son équipe que l’AGI pourrait encore être à une décennie de distance, soulignant les nombreuses tâches que l’IA ne peut pas encore accomplir. Le directeur scientifique de l’IA chez Meta, Yann LeCun, a également exprimé des doutes sur la capacité des LLMs à atteindre l’AGI, qualifiant cette idée de « non-sens » lors de la conférence Nvidia GTC et plaidant pour de nouvelles architectures pour soutenir la superintelligence.
Kenneth Stanley, ancien chercheur principal chez OpenAI et maintenant cadre chez Lila Sciences, travaille sur les détails concrets de la construction d’une IA avancée. Sa startup, qui a récemment levé 200 millions de dollars, se concentre sur l’automatisation de l’innovation scientifique. Le travail de Stanley explore la capacité de l’IA à générer des idées originales et créatives — un domaine connu sous le nom d’ouverture.
« J’aurais aimé avoir écrit l’essai [de Wolf], car il reflète vraiment mes sentiments », a déclaré Stanley à TechCrunch. Il est d’accord avec Wolf sur le fait que la connaissance ne conduit pas automatiquement à des idées originales.
Le rôle de la créativité dans l’IA
Stanley estime que la créativité est cruciale pour l’AGI, mais reconnaît que c’est un défi difficile à relever. Alors que des optimistes comme Amodei mettent en avant les modèles d’IA « raisonnants » comme un pas vers l’AGI, Stanley soutient que la créativité nécessite un type d’intelligence différent. « Le raisonnement est presque antithétique à [la créativité] », a-t-il expliqué. « Les modèles de raisonnement se concentrent sur l’atteinte d’un objectif spécifique, ce qui peut limiter le type de pensée opportuniste nécessaire à la créativité. »
Stanley suggère que pour construire une IA véritablement intelligente, nous devons reproduire algorithmiquement le goût humain pour les nouvelles idées. Alors que l’IA excelle dans des domaines comme les mathématiques et la programmation, où les réponses sont claires, elle rencontre des difficultés avec des tâches créatives plus subjectives qui n’ont pas de réponse « correcte ».
« Les gens évitent [la subjectivité] en science — le mot est presque toxique », a noté Stanley. « Mais rien ne nous empêche de traiter la subjectivité [algorithmiquement]. Ce n’est qu’une partie du flux de données. »
Il est encouragé par l’attention croissante portée à l’ouverture, avec des laboratoires de recherche chez Lila Sciences, Google DeepMind et la startup IA Sakana qui s’attaquent à ce problème. Stanley constate que plus de gens parlent de la créativité dans l’IA, mais il estime qu’il reste encore beaucoup de travail à accomplir.
Les réalistes de l’IA
Wolf et LeCun pourraient être considérés comme les « réalistes de l’IA » : des leaders qui abordent l’AGI et la superintelligence avec des questions ancrées sur leur faisabilité. Leur objectif n’est pas de rejeter les avancées de l’IA, mais de susciter une conversation plus large sur ce qui freine l’IA pour atteindre l’AGI et la superintelligence — et de s’attaquer directement à ces défis.
Article connexe
OpenAI Réaffirme ses Racines Non Lucratives dans une Refonte Majeure de l'Entreprise
OpenAI reste ferme dans sa mission non lucrative alors qu'elle entreprend une restructuration d'entreprise significative, équilibrant la croissance avec son engagement envers un développement éthique
Les leaders de l'IA discutent de l'AGI : Ancrés dans la réalité
Lors d'un dîner récent avec des chefs d'entreprise à San Francisco, j'ai posé une question qui a semblé geler l'atmosphère : l'IA d'aujourd'hui pourrait-elle atteindre ou dépasser
Openai recule: SUES ELON MUSK pour ses prétendus efforts pour saper le concurrent de l'IA
Openai a lancé une contre-attaque juridique féroce contre son co-fondateur, Elon Musk, et sa société d'IA concurrente, XAI. Dans une escalade spectaculaire de leur querelle en cours, Openai accuse Musk de mener une campagne "implacable" et "malveillante" pour saper l'entreprise qu'il a aidé à démarrer. Selon le tribunal D
commentaires (7)
0/200
RichardHarris
2 août 2025 17:07:14 UTC+02:00
That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.
0
FrankJackson
28 juillet 2025 03:19:30 UTC+02:00
This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!
0
MarkRoberts
11 mai 2025 00:50:03 UTC+02:00
La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.
0
CharlesRoberts
10 mai 2025 20:06:40 UTC+02:00
A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.
0
StevenNelson
10 mai 2025 15:16:38 UTC+02:00
AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。
0
RalphSanchez
10 mai 2025 12:08:18 UTC+02:00
AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.
0
Lors d’un récent dîner avec des dirigeants d’entreprise à San Francisco, j’ai posé une question qui semblait figer la salle : l’IA d’aujourd’hui pourrait-elle un jour atteindre une intelligence de niveau humain ou au-delà ? C’est un sujet qui suscite plus de débats qu’on ne pourrait l’imaginer.
En 2025, les PDG du secteur technologique sont pleins d’optimisme concernant les grands modèles de langage (LLMs) comme ceux qui alimentent ChatGPT et Gemini. Ils sont convaincus que ces modèles pourraient bientôt atteindre une intelligence de niveau humain, voire surhumaine. Prenez par exemple Dario Amodei d’Anthropic. Il a rédigé des essais suggérant que d’ici 2026, nous pourrions voir une IA plus intelligente que les lauréats du prix Nobel dans divers domaines. Pendant ce temps, Sam Altman d’OpenAI s’est exprimé publiquement sur la manière de construire une IA « superintelligente », prédisant qu’elle pourrait accélérer considérablement les découvertes scientifiques.
Mais tout le monde n’adhère pas à ce tableau optimiste. Certains leaders de l’IA sont sceptiques quant à la capacité des LLMs à atteindre l’AGI, sans parler de la superintelligence, sans percées significatives. Ces sceptiques, autrefois discrets, s’expriment désormais davantage.
Scepticisme dans la communauté de l’IA
Prenez Thomas Wolf, co-fondateur et directeur scientifique de Hugging Face. Dans un article récent, il a qualifié certaines parties de la vision d’Amodei de « vœu pieux au mieux ». S’appuyant sur son doctorat en physique statistique et quantique, Wolf soutient que les percées de niveau Nobel proviennent de la capacité à poser de nouvelles questions, et pas seulement à répondre à celles connues — une tâche dans laquelle l’IA excelle, mais qui n’est pas idéale pour ouvrir de nouvelles perspectives.
« J’aimerais voir ce ‘modèle Einstein’ exister, mais nous devons nous pencher sur les détails de comment y parvenir », a partagé Wolf dans une interview avec TechCrunch. Il a écrit cet article parce qu’il estimait que l’engouement autour de l’AGI éclipsait la nécessité d’une discussion sérieuse sur la manière de l’atteindre. Wolf envisage un avenir où l’IA transforme le monde, mais pas nécessairement un monde où elle atteint une intelligence de niveau humain ou une superintelligence.
La communauté de l’IA est souvent divisée entre ceux qui croient en l’AGI et ceux qui n’y croient pas, ces derniers étant parfois qualifiés d’« anti-technologie » ou simplement de pessimistes. Wolf, cependant, se considère comme un « optimiste éclairé », prônant l’avancement de l’IA tout en restant ancré dans la réalité.
Autres voix dans le débat sur l’IA
Le PDG de Google DeepMind, Demis Hassabis, aurait déclaré à son équipe que l’AGI pourrait encore être à une décennie de distance, soulignant les nombreuses tâches que l’IA ne peut pas encore accomplir. Le directeur scientifique de l’IA chez Meta, Yann LeCun, a également exprimé des doutes sur la capacité des LLMs à atteindre l’AGI, qualifiant cette idée de « non-sens » lors de la conférence Nvidia GTC et plaidant pour de nouvelles architectures pour soutenir la superintelligence.
Kenneth Stanley, ancien chercheur principal chez OpenAI et maintenant cadre chez Lila Sciences, travaille sur les détails concrets de la construction d’une IA avancée. Sa startup, qui a récemment levé 200 millions de dollars, se concentre sur l’automatisation de l’innovation scientifique. Le travail de Stanley explore la capacité de l’IA à générer des idées originales et créatives — un domaine connu sous le nom d’ouverture.
« J’aurais aimé avoir écrit l’essai [de Wolf], car il reflète vraiment mes sentiments », a déclaré Stanley à TechCrunch. Il est d’accord avec Wolf sur le fait que la connaissance ne conduit pas automatiquement à des idées originales.
Le rôle de la créativité dans l’IA
Stanley estime que la créativité est cruciale pour l’AGI, mais reconnaît que c’est un défi difficile à relever. Alors que des optimistes comme Amodei mettent en avant les modèles d’IA « raisonnants » comme un pas vers l’AGI, Stanley soutient que la créativité nécessite un type d’intelligence différent. « Le raisonnement est presque antithétique à [la créativité] », a-t-il expliqué. « Les modèles de raisonnement se concentrent sur l’atteinte d’un objectif spécifique, ce qui peut limiter le type de pensée opportuniste nécessaire à la créativité. »
Stanley suggère que pour construire une IA véritablement intelligente, nous devons reproduire algorithmiquement le goût humain pour les nouvelles idées. Alors que l’IA excelle dans des domaines comme les mathématiques et la programmation, où les réponses sont claires, elle rencontre des difficultés avec des tâches créatives plus subjectives qui n’ont pas de réponse « correcte ».
« Les gens évitent [la subjectivité] en science — le mot est presque toxique », a noté Stanley. « Mais rien ne nous empêche de traiter la subjectivité [algorithmiquement]. Ce n’est qu’une partie du flux de données. »
Il est encouragé par l’attention croissante portée à l’ouverture, avec des laboratoires de recherche chez Lila Sciences, Google DeepMind et la startup IA Sakana qui s’attaquent à ce problème. Stanley constate que plus de gens parlent de la créativité dans l’IA, mais il estime qu’il reste encore beaucoup de travail à accomplir.
Les réalistes de l’IA
Wolf et LeCun pourraient être considérés comme les « réalistes de l’IA » : des leaders qui abordent l’AGI et la superintelligence avec des questions ancrées sur leur faisabilité. Leur objectif n’est pas de rejeter les avancées de l’IA, mais de susciter une conversation plus large sur ce qui freine l’IA pour atteindre l’AGI et la superintelligence — et de s’attaquer directement à ces défis.


That dinner convo sounds intense! 😮 Asking if AI can hit human-level smarts is like tossing a grenade into a tech nerd party. I bet those CEOs were all over the place with their takes.




This article really got me thinking—AGI sounds like sci-fi, but are we actually close? I’m kinda skeptical it’ll match human smarts anytime soon. 😅 Still, cool to see CEOs so hyped!




La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.




A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.




AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。




AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.












