Anthropic affirme que l'IA n'est pas bloqué, il est en train de surpasser les références

Les grands modèles de langage (LLMs) et autres technologies d'IA générative réalisent des progrès significatifs dans l'auto-correction, ouvrant la voie à de nouvelles applications, y compris ce qu'on appelle "l'IA agentique", selon Michael Gerstenhaber, vice-président d'Anthropic, un développeur de modèles d'IA de premier plan.
"Il devient très performant en auto-correction, en auto-raisonnement", a partagé Gerstenhaber, qui dirige les technologies d'API chez Anthropic, lors d'une interview à New York avec Anurag Rana de Bloomberg Intelligence. Anthropic, créateurs de la famille de LLMs Claude, sont des concurrents directs des modèles GPT d'OpenAI. "Tous les deux mois environ, nous lançons un nouveau modèle qui élargit les capacités des LLMs", a-t-il ajouté, soulignant la nature dynamique de l'industrie où chaque révision de modèle débloque de nouveaux usages potentiels.
Nouvelles capacités des modèles d'IA
Les derniers modèles d'Anthropic ont introduit des capacités telles que la planification de tâches, leur permettant d'exécuter des tâches sur un ordinateur de manière similaire à un humain, comme commander une pizza en ligne. "Planifier des étapes intermédiaires, quelque chose qui n'était pas réalisable hier, est maintenant à portée de main", a noté Gerstenhaber à propos de cette exécution de tâches étape par étape.
La discussion, qui incluait également Vijay Karunamurthy, technologue en chef de la startup d'IA Scale AI, faisait partie d'une conférence d'une journée organisée par Bloomberg Intelligence intitulée "Gen AI : Peut-elle tenir sa promesse de productivité ?"
Défier le scepticisme envers l'IA
Les idées de Gerstenhaber remettent en question les points de vue des sceptiques de l'IA qui soutiennent que l'IA générative et le domaine de l'IA en général "atteignent un mur", suggérant des rendements décroissants à chaque nouvelle itération de modèle. L'universitaire en IA Gary Marcus, par exemple, a exprimé ses préoccupations depuis 2022, avertissant que simplement augmenter la taille des modèles d'IA (plus de paramètres) n'améliorera pas proportionnellement leurs performances.
Cependant, Gerstenhaber affirme qu'Anthropic repousse les limites au-delà de ce que les benchmarks actuels de l'IA peuvent mesurer. "Même si les progrès semblent ralentir dans certains domaines, c'est parce que nous débloquons de toutes nouvelles fonctionnalités, mais nous avons saturé les benchmarks et la capacité à effectuer les tâches plus anciennes", a-t-il expliqué. Cela rend de plus en plus difficile d'évaluer pleinement ce que les modèles d'IA générative actuels peuvent accomplir.
Mise à l'échelle et apprentissage
Gerstenhaber et Karunamurthy ont tous deux souligné l'importance de la mise à l'échelle des modèles d'IA générative pour améliorer leurs capacités d'auto-correction. "Nous constatons certainement une mise à l'échelle croissante de l'intelligence", a remarqué Gerstenhaber. Karunamurthy a ajouté : "Une des raisons pour lesquelles nous pensons ne pas atteindre un mur avec la planification et le raisonnement est que nous apprenons encore à structurer ces tâches pour que les modèles puissent s'adapter à des environnements nouveaux et variés."
Gerstenhaber a acquiescé, déclarant : "Nous sommes aux débuts, apprenant des développeurs d'applications leurs besoins et les lacunes des modèles, que nous pouvons ensuite réintégrer dans le modèle de langage."
Apprentissage et adaptation en temps réel
Une grande partie de ces progrès, selon Gerstenhaber, est alimentée par le rythme rapide de la recherche fondamentale chez Anthropic, ainsi que par un apprentissage en temps réel à partir des retours de l'industrie. "Nous nous adaptons à ce que l'industrie nous dit avoir besoin, apprenant en temps réel", a-t-il dit.
Les clients commencent souvent par des modèles plus grands, puis passent à des modèles plus simples pour répondre à des besoins spécifiques. "Initialement, ils évaluent si un modèle est suffisamment intelligent pour bien effectuer une tâche, puis s'il est assez rapide pour répondre aux besoins de leur application, et enfin, s'il peut être aussi rentable que possible", a expliqué Gerstenhaber.
Article connexe
Création musicale alimentée par l'IA : Créez des chansons et des vidéos sans effort
La création musicale peut être complexe, nécessitant du temps, des ressources et une expertise. L'intelligence artificielle a transformé ce processus, le rendant simple et accessible. Ce guide montre
Création de livres de coloriage alimentés par l'IA : Un guide complet
Concevoir des livres de coloriage est une entreprise gratifiante, combinant expression artistique et expériences apaisantes pour les utilisateurs. Cependant, le processus peut être laborieux. Heureuse
Qodo s'associe à Google Cloud pour offrir des outils gratuits d'examen de code par IA aux développeurs
Qodo, une startup israélienne spécialisée dans le codage par IA et axée sur la qualité du code, a lancé un partenariat avec Google Cloud pour améliorer l'intégrité des logiciels générés par IA.À mesur
commentaires (8)
0/200
JoseRoberts
12 août 2025 17:00:59 UTC+02:00
This self-correction stuff is wild! 😮 It's like AI is learning to double-check its own homework. Wonder how far this 'agentic AI' will go—could it outsmart us at our own jobs soon?
0
WalterAnderson
31 juillet 2025 13:35:39 UTC+02:00
It's wild to think AI can now self-correct! 😮 Makes me wonder how soon we'll see these 'agentic AI' systems running our lives—hope they don’t outsmart us too much!
0
RonaldMartinez
22 juillet 2025 09:39:52 UTC+02:00
This article really opened my eyes to how fast AI is evolving! Self-correcting LLMs sound like a game-changer for agentic AI. Can’t wait to see what new apps come out of this! 😄
0
WillieJackson
18 avril 2025 09:00:28 UTC+02:00
La perspectiva de Anthropic sobre que la IA no se estanca sino que supera los benchmarks es bastante genial. Es como si la IA estuviera jugando ajedrez mientras nosotros aún estamos tratando de entender las damas. Lo de la autocorrección suena prometedor, pero aún estoy un poco escéptico. 🤔
0
GeorgeWilson
17 avril 2025 19:45:24 UTC+02:00
Anthropic의 AI가 정체되지 않고 벤치마크를 뛰어넘는다는 생각이 멋지네요. AI는 체스를 하고 있는데, 우리는 아직 체커를 이해하는 단계예요. 자기 교정 이야기는 유망하지만, 아직 조금 회의적이에요. 🤔
0
NicholasCarter
17 avril 2025 13:27:31 UTC+02:00
Anthropic's take on AI not stalling but outsmarting benchmarks is pretty cool. It's like AI is playing chess while we're still figuring out checkers. The self-correction stuff sounds promising, but I'm still a bit skeptical. 🤔
0
Les grands modèles de langage (LLMs) et autres technologies d'IA générative réalisent des progrès significatifs dans l'auto-correction, ouvrant la voie à de nouvelles applications, y compris ce qu'on appelle "l'IA agentique", selon Michael Gerstenhaber, vice-président d'Anthropic, un développeur de modèles d'IA de premier plan.
"Il devient très performant en auto-correction, en auto-raisonnement", a partagé Gerstenhaber, qui dirige les technologies d'API chez Anthropic, lors d'une interview à New York avec Anurag Rana de Bloomberg Intelligence. Anthropic, créateurs de la famille de LLMs Claude, sont des concurrents directs des modèles GPT d'OpenAI. "Tous les deux mois environ, nous lançons un nouveau modèle qui élargit les capacités des LLMs", a-t-il ajouté, soulignant la nature dynamique de l'industrie où chaque révision de modèle débloque de nouveaux usages potentiels.
Nouvelles capacités des modèles d'IA
Les derniers modèles d'Anthropic ont introduit des capacités telles que la planification de tâches, leur permettant d'exécuter des tâches sur un ordinateur de manière similaire à un humain, comme commander une pizza en ligne. "Planifier des étapes intermédiaires, quelque chose qui n'était pas réalisable hier, est maintenant à portée de main", a noté Gerstenhaber à propos de cette exécution de tâches étape par étape.
La discussion, qui incluait également Vijay Karunamurthy, technologue en chef de la startup d'IA Scale AI, faisait partie d'une conférence d'une journée organisée par Bloomberg Intelligence intitulée "Gen AI : Peut-elle tenir sa promesse de productivité ?"
Défier le scepticisme envers l'IA
Les idées de Gerstenhaber remettent en question les points de vue des sceptiques de l'IA qui soutiennent que l'IA générative et le domaine de l'IA en général "atteignent un mur", suggérant des rendements décroissants à chaque nouvelle itération de modèle. L'universitaire en IA Gary Marcus, par exemple, a exprimé ses préoccupations depuis 2022, avertissant que simplement augmenter la taille des modèles d'IA (plus de paramètres) n'améliorera pas proportionnellement leurs performances.
Cependant, Gerstenhaber affirme qu'Anthropic repousse les limites au-delà de ce que les benchmarks actuels de l'IA peuvent mesurer. "Même si les progrès semblent ralentir dans certains domaines, c'est parce que nous débloquons de toutes nouvelles fonctionnalités, mais nous avons saturé les benchmarks et la capacité à effectuer les tâches plus anciennes", a-t-il expliqué. Cela rend de plus en plus difficile d'évaluer pleinement ce que les modèles d'IA générative actuels peuvent accomplir.
Mise à l'échelle et apprentissage
Gerstenhaber et Karunamurthy ont tous deux souligné l'importance de la mise à l'échelle des modèles d'IA générative pour améliorer leurs capacités d'auto-correction. "Nous constatons certainement une mise à l'échelle croissante de l'intelligence", a remarqué Gerstenhaber. Karunamurthy a ajouté : "Une des raisons pour lesquelles nous pensons ne pas atteindre un mur avec la planification et le raisonnement est que nous apprenons encore à structurer ces tâches pour que les modèles puissent s'adapter à des environnements nouveaux et variés."
Gerstenhaber a acquiescé, déclarant : "Nous sommes aux débuts, apprenant des développeurs d'applications leurs besoins et les lacunes des modèles, que nous pouvons ensuite réintégrer dans le modèle de langage."
Apprentissage et adaptation en temps réel
Une grande partie de ces progrès, selon Gerstenhaber, est alimentée par le rythme rapide de la recherche fondamentale chez Anthropic, ainsi que par un apprentissage en temps réel à partir des retours de l'industrie. "Nous nous adaptons à ce que l'industrie nous dit avoir besoin, apprenant en temps réel", a-t-il dit.
Les clients commencent souvent par des modèles plus grands, puis passent à des modèles plus simples pour répondre à des besoins spécifiques. "Initialement, ils évaluent si un modèle est suffisamment intelligent pour bien effectuer une tâche, puis s'il est assez rapide pour répondre aux besoins de leur application, et enfin, s'il peut être aussi rentable que possible", a expliqué Gerstenhaber.




This self-correction stuff is wild! 😮 It's like AI is learning to double-check its own homework. Wonder how far this 'agentic AI' will go—could it outsmart us at our own jobs soon?




It's wild to think AI can now self-correct! 😮 Makes me wonder how soon we'll see these 'agentic AI' systems running our lives—hope they don’t outsmart us too much!




This article really opened my eyes to how fast AI is evolving! Self-correcting LLMs sound like a game-changer for agentic AI. Can’t wait to see what new apps come out of this! 😄




La perspectiva de Anthropic sobre que la IA no se estanca sino que supera los benchmarks es bastante genial. Es como si la IA estuviera jugando ajedrez mientras nosotros aún estamos tratando de entender las damas. Lo de la autocorrección suena prometedor, pero aún estoy un poco escéptico. 🤔




Anthropic의 AI가 정체되지 않고 벤치마크를 뛰어넘는다는 생각이 멋지네요. AI는 체스를 하고 있는데, 우리는 아직 체커를 이해하는 단계예요. 자기 교정 이야기는 유망하지만, 아직 조금 회의적이에요. 🤔




Anthropic's take on AI not stalling but outsmarting benchmarks is pretty cool. It's like AI is playing chess while we're still figuring out checkers. The self-correction stuff sounds promising, but I'm still a bit skeptical. 🤔












