Les leaders de l'IA discutent de l'AGI : Ancrés dans la réalité
9 mai 2025
DanielThomas
0

Lors d'un dîner récent avec des chefs d'entreprise à San Francisco, j'ai posé une question qui a semblé geler l'atmosphère : l'IA d'aujourd'hui pourrait-elle atteindre ou dépasser l'intelligence humaine ? C'est un sujet qui suscite plus de débats que l'on pourrait s'y attendre.
En 2025, les PDG de la tech sont optimistes à propos des grands modèles de langage (LLM) comme ceux derrière ChatGPT et Gemini. Ils sont convaincus que ces modèles pourraient bientôt atteindre un niveau d'intelligence humaine, voire superhumaine. Prenons l'exemple de Dario Amodei d'Anthropic. Il a écrit des essais suggérant que d'ici 2026, nous pourrions voir une IA plus intelligente que les lauréats du prix Nobel dans divers domaines. Pendant ce temps, Sam Altman d'OpenAI a été très vocal sur le fait de savoir comment construire une IA "superintelligente", prédisant qu'elle pourrait accélérer la découverte scientifique.
Mais tout le monde n'adhère pas à ce tableau idyllique. Certains leaders de l'IA sont sceptiques quant à la capacité des LLM à atteindre l'AGI, sans parler de la superintelligence, sans percées significatives. Ces sceptiques, autrefois silencieux, s'expriment maintenant davantage.
Scepticisme dans la communauté de l'IA
Prenons Thomas Wolf, cofondateur et directeur scientifique chez Hugging Face. Dans un article récent, il a qualifié certaines parties de la vision d'Amodei de "pensée pieuse au mieux". En s'appuyant sur son doctorat en physique statistique et quantique, Wolf argue que les percées au niveau Nobel proviennent de la formulation de nouvelles questions, pas seulement de la réponse à celles connues - quelque chose dans lequel l'IA excelle mais qui n'est pas idéal pour pionner de nouvelles idées.
"J'aimerais voir ce ‘modèle Einstein’ émerger, mais nous devons nous plonger dans les détails de comment y parvenir," a partagé Wolf lors d'une interview avec TechCrunch. Il a écrit son article car il sentait que l'engouement autour de l'AGI éclipsait le besoin d'une discussion sérieuse sur comment l'atteindre. Wolf voit un avenir où l'IA transforme le monde, mais pas nécessairement un où elle atteint l'intelligence humaine ou la superintelligence.
La communauté de l'IA est souvent divisée entre ceux qui croient en l'AGI et ceux qui n'y croient pas, ces derniers étant parfois étiquetés comme "anti-technologie" ou simplement pessimistes. Cependant, Wolf se considère comme un "optimiste informé", poussant pour l'avancement de l'IA tout en restant ancré dans la réalité.
D'autres voix dans le débat sur l'IA
Le PDG de Google DeepMind, Demis Hassabis, aurait dit à son équipe que l'AGI pourrait encore être à une décennie de distance, soulignant les nombreuses tâches que l'IA ne peut pas encore gérer. Le scientifique en chef de l'IA chez Meta, Yann LeCun, a également exprimé des doutes quant à la capacité des LLM à atteindre l'AGI, qualifiant l'idée de "non-sens" lors de la Nvidia GTC et poussant pour de nouvelles architectures pour sous-tendre la superintelligence.
Kenneth Stanley, ancien chercheur principal chez OpenAI et maintenant cadre chez Lila Sciences, travaille sur les détails de la construction d'une IA avancée. Sa startup, qui a récemment levé 200 millions de dollars, se concentre sur l'automatisation de l'innovation scientifique. Le travail de Stanley explore la capacité de l'IA à générer des idées originales et créatives, un domaine connu sous le nom d'ouverture.
"J'aurais aimé écrire [l'essai de Wolf], car il reflète vraiment mes sentiments," a déclaré Stanley à TechCrunch. Il est d'accord avec Wolf que le fait d'être savant ne conduit pas automatiquement à des idées originales.
Le rôle de la créativité dans l'IA
Stanley croit que la créativité est cruciale pour l'AGI, mais admet que c'est un défi difficile à relever. Alors que des optimistes comme Amodei mettent en avant les modèles de "raisonnement" de l'IA comme une étape vers l'AGI, Stanley argue que la créativité nécessite un type d'intelligence différent. "Le raisonnement est presque antithétique à [la créativité]," a-t-il expliqué. "Les modèles de raisonnement se concentrent sur l'atteinte d'un objectif spécifique, ce qui peut limiter le type de pensée opportuniste nécessaire à la créativité."
Stanley suggère que pour construire une IA véritablement intelligente, nous devons reproduire algorithmiquement le goût humain pour les nouvelles idées. Alors que l'IA excelle dans des domaines comme les mathématiques et la programmation, où les réponses sont claires, elle peine avec des tâches plus subjectives et créatives qui n'ont pas de "bonne" réponse.
"Les gens évitent [la subjectivité] en science - le mot est presque toxique," a noté Stanley. "Mais il n'y a rien qui nous empêche de traiter la subjectivité [algorithmiquement]. C'est juste une partie du flux de données."
Il est encouragé par l'intérêt croissant pour l'ouverture, avec des laboratoires de recherche chez Lila Sciences, Google DeepMind, et la startup d'IA Sakana qui s'attaquent au problème. Stanley voit plus de personnes parler de créativité dans l'IA mais croit qu'il reste encore beaucoup de travail à accomplir.
Les réalistes de l'IA
Wolf et LeCun pourraient être considérés comme les "réalistes de l'IA" : des leaders qui abordent l'AGI et la superintelligence avec des questions ancrées dans la faisabilité. Leur objectif n'est pas de rejeter les avancées de l'IA mais de susciter une conversation plus large sur ce qui empêche l'IA d'atteindre l'AGI et la superintelligence - et de relever ces défis de front.
Article connexe
Openai recule: SUES ELON MUSK pour ses prétendus efforts pour saper le concurrent de l'IA
Openai a lancé une contre-attaque juridique féroce contre son co-fondateur, Elon Musk, et sa société d'IA concurrente, XAI. Dans une escalade spectaculaire de leur querelle en cours, Openai accuse Musk de mener une campagne "implacable" et "malveillante" pour saper l'entreprise qu'il a aidé à démarrer. Selon le tribunal D
Le droit de l'accélération des rendements expliqués: Pathway vers le développement AGI
Dans une récente interview, Elon Musk a partagé son point de vue optimiste sur la chronologie de l'avènement de l'intelligence générale artificielle (AGI), déclarant que cela pourrait être dès que * «3 à 6 ans» *. De même, Demis Hassabis, PDG de Deepmind de Google, a exprimé à l'avenir du Wall Street Journal de tout Festi
Le nouveau test AGI s'avère difficile, les souches majorité des modèles d'IA
L'Arc Prize Foundation, co-fondé par le célèbre chercheur de l'IA, François Chollet, a récemment dévoilé une nouvelle référence appelée Arc-AGI-2 dans un article de blog. Ce test vise à repousser les limites de l'intelligence générale de l'IA, et jusqu'à présent, il s'avère être un noix difficile à casser pour la plupart des modèles d'IA.
commentaires (0)
0/200






Lors d'un dîner récent avec des chefs d'entreprise à San Francisco, j'ai posé une question qui a semblé geler l'atmosphère : l'IA d'aujourd'hui pourrait-elle atteindre ou dépasser l'intelligence humaine ? C'est un sujet qui suscite plus de débats que l'on pourrait s'y attendre.
En 2025, les PDG de la tech sont optimistes à propos des grands modèles de langage (LLM) comme ceux derrière ChatGPT et Gemini. Ils sont convaincus que ces modèles pourraient bientôt atteindre un niveau d'intelligence humaine, voire superhumaine. Prenons l'exemple de Dario Amodei d'Anthropic. Il a écrit des essais suggérant que d'ici 2026, nous pourrions voir une IA plus intelligente que les lauréats du prix Nobel dans divers domaines. Pendant ce temps, Sam Altman d'OpenAI a été très vocal sur le fait de savoir comment construire une IA "superintelligente", prédisant qu'elle pourrait accélérer la découverte scientifique.
Mais tout le monde n'adhère pas à ce tableau idyllique. Certains leaders de l'IA sont sceptiques quant à la capacité des LLM à atteindre l'AGI, sans parler de la superintelligence, sans percées significatives. Ces sceptiques, autrefois silencieux, s'expriment maintenant davantage.
Scepticisme dans la communauté de l'IA
Prenons Thomas Wolf, cofondateur et directeur scientifique chez Hugging Face. Dans un article récent, il a qualifié certaines parties de la vision d'Amodei de "pensée pieuse au mieux". En s'appuyant sur son doctorat en physique statistique et quantique, Wolf argue que les percées au niveau Nobel proviennent de la formulation de nouvelles questions, pas seulement de la réponse à celles connues - quelque chose dans lequel l'IA excelle mais qui n'est pas idéal pour pionner de nouvelles idées.
"J'aimerais voir ce ‘modèle Einstein’ émerger, mais nous devons nous plonger dans les détails de comment y parvenir," a partagé Wolf lors d'une interview avec TechCrunch. Il a écrit son article car il sentait que l'engouement autour de l'AGI éclipsait le besoin d'une discussion sérieuse sur comment l'atteindre. Wolf voit un avenir où l'IA transforme le monde, mais pas nécessairement un où elle atteint l'intelligence humaine ou la superintelligence.
La communauté de l'IA est souvent divisée entre ceux qui croient en l'AGI et ceux qui n'y croient pas, ces derniers étant parfois étiquetés comme "anti-technologie" ou simplement pessimistes. Cependant, Wolf se considère comme un "optimiste informé", poussant pour l'avancement de l'IA tout en restant ancré dans la réalité.
D'autres voix dans le débat sur l'IA
Le PDG de Google DeepMind, Demis Hassabis, aurait dit à son équipe que l'AGI pourrait encore être à une décennie de distance, soulignant les nombreuses tâches que l'IA ne peut pas encore gérer. Le scientifique en chef de l'IA chez Meta, Yann LeCun, a également exprimé des doutes quant à la capacité des LLM à atteindre l'AGI, qualifiant l'idée de "non-sens" lors de la Nvidia GTC et poussant pour de nouvelles architectures pour sous-tendre la superintelligence.
Kenneth Stanley, ancien chercheur principal chez OpenAI et maintenant cadre chez Lila Sciences, travaille sur les détails de la construction d'une IA avancée. Sa startup, qui a récemment levé 200 millions de dollars, se concentre sur l'automatisation de l'innovation scientifique. Le travail de Stanley explore la capacité de l'IA à générer des idées originales et créatives, un domaine connu sous le nom d'ouverture.
"J'aurais aimé écrire [l'essai de Wolf], car il reflète vraiment mes sentiments," a déclaré Stanley à TechCrunch. Il est d'accord avec Wolf que le fait d'être savant ne conduit pas automatiquement à des idées originales.
Le rôle de la créativité dans l'IA
Stanley croit que la créativité est cruciale pour l'AGI, mais admet que c'est un défi difficile à relever. Alors que des optimistes comme Amodei mettent en avant les modèles de "raisonnement" de l'IA comme une étape vers l'AGI, Stanley argue que la créativité nécessite un type d'intelligence différent. "Le raisonnement est presque antithétique à [la créativité]," a-t-il expliqué. "Les modèles de raisonnement se concentrent sur l'atteinte d'un objectif spécifique, ce qui peut limiter le type de pensée opportuniste nécessaire à la créativité."
Stanley suggère que pour construire une IA véritablement intelligente, nous devons reproduire algorithmiquement le goût humain pour les nouvelles idées. Alors que l'IA excelle dans des domaines comme les mathématiques et la programmation, où les réponses sont claires, elle peine avec des tâches plus subjectives et créatives qui n'ont pas de "bonne" réponse.
"Les gens évitent [la subjectivité] en science - le mot est presque toxique," a noté Stanley. "Mais il n'y a rien qui nous empêche de traiter la subjectivité [algorithmiquement]. C'est juste une partie du flux de données."
Il est encouragé par l'intérêt croissant pour l'ouverture, avec des laboratoires de recherche chez Lila Sciences, Google DeepMind, et la startup d'IA Sakana qui s'attaquent au problème. Stanley voit plus de personnes parler de créativité dans l'IA mais croit qu'il reste encore beaucoup de travail à accomplir.
Les réalistes de l'IA
Wolf et LeCun pourraient être considérés comme les "réalistes de l'IA" : des leaders qui abordent l'AGI et la superintelligence avec des questions ancrées dans la faisabilité. Leur objectif n'est pas de rejeter les avancées de l'IA mais de susciter une conversation plus large sur ce qui empêche l'IA d'atteindre l'AGI et la superintelligence - et de relever ces défis de front.











