option
Maison
Nouvelles
Les leaders de l'IA discutent de l'AGI : Ancrés dans la réalité

Les leaders de l'IA discutent de l'AGI : Ancrés dans la réalité

9 mai 2025
72

Les leaders de l

Lors d'un dîner récent avec des chefs d'entreprise à San Francisco, j'ai posé une question qui a semblé geler l'atmosphère : l'IA d'aujourd'hui pourrait-elle atteindre ou dépasser l'intelligence humaine ? C'est un sujet qui suscite plus de débats que l'on pourrait s'y attendre.

En 2025, les PDG de la tech sont optimistes à propos des grands modèles de langage (LLM) comme ceux derrière ChatGPT et Gemini. Ils sont convaincus que ces modèles pourraient bientôt atteindre un niveau d'intelligence humaine, voire superhumaine. Prenons l'exemple de Dario Amodei d'Anthropic. Il a écrit des essais suggérant que d'ici 2026, nous pourrions voir une IA plus intelligente que les lauréats du prix Nobel dans divers domaines. Pendant ce temps, Sam Altman d'OpenAI a été très vocal sur le fait de savoir comment construire une IA "superintelligente", prédisant qu'elle pourrait accélérer la découverte scientifique.

Mais tout le monde n'adhère pas à ce tableau idyllique. Certains leaders de l'IA sont sceptiques quant à la capacité des LLM à atteindre l'AGI, sans parler de la superintelligence, sans percées significatives. Ces sceptiques, autrefois silencieux, s'expriment maintenant davantage.

Scepticisme dans la communauté de l'IA

Prenons Thomas Wolf, cofondateur et directeur scientifique chez Hugging Face. Dans un article récent, il a qualifié certaines parties de la vision d'Amodei de "pensée pieuse au mieux". En s'appuyant sur son doctorat en physique statistique et quantique, Wolf argue que les percées au niveau Nobel proviennent de la formulation de nouvelles questions, pas seulement de la réponse à celles connues - quelque chose dans lequel l'IA excelle mais qui n'est pas idéal pour pionner de nouvelles idées.

"J'aimerais voir ce ‘modèle Einstein’ émerger, mais nous devons nous plonger dans les détails de comment y parvenir," a partagé Wolf lors d'une interview avec TechCrunch. Il a écrit son article car il sentait que l'engouement autour de l'AGI éclipsait le besoin d'une discussion sérieuse sur comment l'atteindre. Wolf voit un avenir où l'IA transforme le monde, mais pas nécessairement un où elle atteint l'intelligence humaine ou la superintelligence.

La communauté de l'IA est souvent divisée entre ceux qui croient en l'AGI et ceux qui n'y croient pas, ces derniers étant parfois étiquetés comme "anti-technologie" ou simplement pessimistes. Cependant, Wolf se considère comme un "optimiste informé", poussant pour l'avancement de l'IA tout en restant ancré dans la réalité.

D'autres voix dans le débat sur l'IA

Le PDG de Google DeepMind, Demis Hassabis, aurait dit à son équipe que l'AGI pourrait encore être à une décennie de distance, soulignant les nombreuses tâches que l'IA ne peut pas encore gérer. Le scientifique en chef de l'IA chez Meta, Yann LeCun, a également exprimé des doutes quant à la capacité des LLM à atteindre l'AGI, qualifiant l'idée de "non-sens" lors de la Nvidia GTC et poussant pour de nouvelles architectures pour sous-tendre la superintelligence.

Kenneth Stanley, ancien chercheur principal chez OpenAI et maintenant cadre chez Lila Sciences, travaille sur les détails de la construction d'une IA avancée. Sa startup, qui a récemment levé 200 millions de dollars, se concentre sur l'automatisation de l'innovation scientifique. Le travail de Stanley explore la capacité de l'IA à générer des idées originales et créatives, un domaine connu sous le nom d'ouverture.

"J'aurais aimé écrire [l'essai de Wolf], car il reflète vraiment mes sentiments," a déclaré Stanley à TechCrunch. Il est d'accord avec Wolf que le fait d'être savant ne conduit pas automatiquement à des idées originales.

Le rôle de la créativité dans l'IA

Stanley croit que la créativité est cruciale pour l'AGI, mais admet que c'est un défi difficile à relever. Alors que des optimistes comme Amodei mettent en avant les modèles de "raisonnement" de l'IA comme une étape vers l'AGI, Stanley argue que la créativité nécessite un type d'intelligence différent. "Le raisonnement est presque antithétique à [la créativité]," a-t-il expliqué. "Les modèles de raisonnement se concentrent sur l'atteinte d'un objectif spécifique, ce qui peut limiter le type de pensée opportuniste nécessaire à la créativité."

Stanley suggère que pour construire une IA véritablement intelligente, nous devons reproduire algorithmiquement le goût humain pour les nouvelles idées. Alors que l'IA excelle dans des domaines comme les mathématiques et la programmation, où les réponses sont claires, elle peine avec des tâches plus subjectives et créatives qui n'ont pas de "bonne" réponse.

"Les gens évitent [la subjectivité] en science - le mot est presque toxique," a noté Stanley. "Mais il n'y a rien qui nous empêche de traiter la subjectivité [algorithmiquement]. C'est juste une partie du flux de données."

Il est encouragé par l'intérêt croissant pour l'ouverture, avec des laboratoires de recherche chez Lila Sciences, Google DeepMind, et la startup d'IA Sakana qui s'attaquent au problème. Stanley voit plus de personnes parler de créativité dans l'IA mais croit qu'il reste encore beaucoup de travail à accomplir.

Les réalistes de l'IA

Wolf et LeCun pourraient être considérés comme les "réalistes de l'IA" : des leaders qui abordent l'AGI et la superintelligence avec des questions ancrées dans la faisabilité. Leur objectif n'est pas de rejeter les avancées de l'IA mais de susciter une conversation plus large sur ce qui empêche l'IA d'atteindre l'AGI et la superintelligence - et de relever ces défis de front.

Article connexe
AI領導者討論AGI:基於現實 AI領導者討論AGI:基於現實 在最近一次與舊金山商業領袖的晚餐上,我提出了一個似乎讓現場冷場的問題:今天的人工智能是否能達到或超越人類的智能?這是一個比你預期的更能引發爭議的話題。到了2025年,科技CEO們對像ChatGPT和Gemini背後的大型語言模型(LLM)充滿了樂觀情緒。他們相信這些模型很快就能達到人類級別甚至超人類的智能。以Anthropic的Dario Amodei為例,
Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手 Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手 Openai對其聯合創始人Elon Musk及其競爭的AI公司Xai發起了激烈的法律反擊。在他們正在進行的爭執的戲劇性升級中,Openai指責馬斯克發動了一場“無情”和“惡意”運動,破壞了他幫助創辦的公司。根據法院D
加速回報定律解釋了:AGI開發途徑 加速回報定律解釋了:AGI開發途徑 在最近的一次採訪中,埃隆·馬斯克(Elon Musk)分享了他對人工通用情報(AGI)的時間表的樂觀觀點(AGI),並指出它可能是 *“ 3至6年” *。同樣,Google DeepMind的首席執行官Demis Hassabis在《華爾街日報》的《一切事物》上表達了
commentaires (5)
0/200
ElijahWalker
ElijahWalker 9 mai 2025 00:00:00 UTC

The AI Leaders discussion on AGI was eye-opening. It grounded the conversation in reality, which is refreshing. Some of the points made were thought-provoking, though I wish there was more depth in certain areas. Overall, it was a solid talk with valuable insights.

StevenNelson
StevenNelson 10 mai 2025 00:00:00 UTC

AIリーダーによるAGIに関する議論はとても興味深かったです。現実に根ざした話が新鮮でした。いくつかのポイントは刺激的でしたが、一部の分野ではもっと深い議論が欲しかったです。全体的に見ると、価値のあるインサイトが詰まった良い講演でした。

RalphSanchez
RalphSanchez 10 mai 2025 00:00:00 UTC

AI 리더들의 AGI에 대한 토론은 참신했어요. 현실적인 접근이 신선하더라고요. 몇 가지 주장은 흥미로웠지만 특정 분야에서는 더 깊이 있는 논의가 있었으면 좋겠어요. 전반적으로 유익한 강연이었습니다.

CharlesRoberts
CharlesRoberts 11 mai 2025 00:00:00 UTC

A discussão sobre AGI pelos líderes de IA foi reveladora. Foi bom ver o assunto ancorado na realidade. Alguns pontos foram interessantes, mas gostaria de mais profundidade em certas áreas. No geral, foi uma palestra sólida com boas ideias.

MarkRoberts
MarkRoberts 11 mai 2025 00:00:00 UTC

La discusión de los líderes de IA sobre el AGI fue muy iluminadora. Anclarse en la realidad fue refrescante. Algunos puntos fueron interesantes, aunque desearía más profundidad en ciertos aspectos. En general, fue una charla sólida con valiosas ideas.

Retour en haut
OR