Ai Power Surge: Anthropic PDG met en garde contre la race pour comprendre
Juste après que le sommet de l'action de l'IA à Paris s'est terminé, le co-fondateur et PDG d'Anthropic, Dario Amodei, n'a pas retenu. Il a qualifié l'événement de "l'occasion manquée" et a souligné que nous devons augmenter l'orientation et l'urgence sur plusieurs questions clés, compte tenu de la vitesse à laquelle AI Tech évolue. Il a partagé ces réflexions dans une déclaration publiée mardi.
Anthropic s'est associé à la startup française Dust pour un événement axé sur les développeurs à Paris, où TechCrunch a pu discuter avec Amodei sur scène. Il a partagé son point de vue et a poussé à une approche équilibrée de l'innovation et de la gouvernance de l'IA, évitant à la fois l'optimisme extrême et les critiques sévères.
Amodei, qui était un neuroscientifique, a déclaré: "J'ai essentiellement regardé à l'intérieur du cerveau réel pour gagner ma vie. Et maintenant, nous regardons à l'intérieur des cerveaux artificiels pour vivre. Nous allons donc, au cours des prochains mois, des avancées passionnantes dans le domaine de l'interprétabilité - où nous commençons vraiment à comprendre comment les modèles fonctionnent." Mais il a également souligné que c'était une course. "C'est une course entre rendre les modèles plus puissants, ce qui est incroyablement rapide pour nous et incroyablement rapide pour les autres - vous ne pouvez pas vraiment ralentir, non? ... Notre compréhension doit suivre notre capacité à construire des choses. Je pense que c'est le seul moyen", a-t-il ajouté.
Depuis le premier sommet de l'IA à Bletchley, au Royaume-Uni, la conversation autour de la gouvernance de l'IA a beaucoup changé, influencé par le climat géopolitique actuel. Le vice-président américain JD Vance, s'exprimant lors du sommet de l'action de l'IA, a déclaré: "Je ne suis pas ici ce matin pour parler de la sécurité de l'IA, qui était le titre de la conférence il y a quelques années. Je suis ici pour parler de l'opportunité de l'IA."
Amodei, cependant, essaie de combler le fossé entre la sécurité et l'opportunité. Il pense que se concentrer davantage sur la sécurité peut être une opportunité. "Lors du sommet original, le Sommet britannique de Bletchley, il y a eu beaucoup de discussions sur les tests et la mesure pour divers risques. Et je ne pense pas que ces choses aient ralenti la technologie", a-t-il déclaré lors de l'événement anthropique. "Si quelque chose, faire ce type de mesure nous a aidés à mieux comprendre nos modèles, ce qui nous aide à produire de meilleurs modèles."
Même en mettant l'accent sur la sécurité, Amodei a clairement indiqué qu'Anthropic est toujours entièrement dans les modèles d'IA frontaliers de construction. "Je ne veux rien faire pour réduire la promesse. Nous fournissons des modèles chaque jour sur lesquels les gens peuvent s'appuyer et qui sont utilisés pour faire des choses incroyables. Et nous ne devrions certainement pas arrêter de le faire", a-t-il déclaré. Plus tard, il a ajouté: "Quand les gens parlent beaucoup des risques, je suis en quelque sorte ennuyé, et je dis:" Oh, mec, personne n'a vraiment fait du bon travail pour vraiment expliquer à quel point cette technologie pourrait être formidable. ""
Lorsque le sujet s'est tourné vers les récents modèles de Chinois LLM-Maker Deepseek, Amodei a minimisé ses réalisations, appelant la réaction du public "inorganique". Il a dit: "Honnêtement, ma réaction a été très peu. Nous avions vu V3, qui est le modèle de base de Deepseek R1, en décembre. Et c'était un modèle impressionnant. Le modèle qui a été publié en décembre était sur ce type de courbe de réduction des coûts très normale que nous avons vue dans nos modèles et autres modèles." Ce qui a attiré son attention, c'est que le modèle ne provenait pas des "trois ou quatre laboratoires frontaliers" habituels aux États-Unis, comme Google, Openai et Anthropic. Il a exprimé son inquiétude concernant les gouvernements autoritaires qui dominent la technologie. Quant aux frais de formation réclamés de Deepseek, il les a rejetés comme "tout simplement pas exacts et non basés sur des faits".
Bien qu'Amodei n'ait pas annoncé de nouveaux modèles lors de l'événement, il a fait allusion aux prochaines versions avec des capacités de raisonnement améliorées. "Nous nous concentrons généralement sur l'essayage de faire notre propre vision des modèles de raisonnement qui sont mieux différenciés. Nous nous soucions de nous assurer que nous avons suffisamment de capacité, que les modèles deviennent plus intelligents et que nous nous inquiétons des choses de sécurité", a-t-il déclaré.
Anthropic aborde également le défi de sélection du modèle. Si vous êtes un utilisateur Chatgpt Plus, par exemple, il peut être difficile de décider quel modèle utiliser pour votre prochain message.

Crédits d'image: capture d'écran de Chatgpt Il en va de même pour les développeurs utilisant des API de modèle grand langage (LLM) dans leurs applications, qui doivent équilibrer la précision, la vitesse de réponse et les coûts.
Amodei a remis en question la distinction entre les modèles normaux et le raisonnement. "Nous avons été un peu perplexes par l'idée qu'il existe des modèles normaux et qu'il existe des modèles de raisonnement et qu'ils sont en quelque sorte différents les uns des autres", a-t-il déclaré. "Si je vous parle, vous n'avez pas deux cerveaux et que l'un d'eux répond tout de suite et comme, l'autre attend plus longtemps."
Il pense qu'il devrait y avoir une transition plus fluide entre les modèles pré-formés comme Claude 3.5 Sonnet ou GPT-4O et les modèles formés avec l'apprentissage du renforcement qui peut produire une chaîne de pensées (COT), comme O1 d'Openai ou R1 de Deepseek. "Nous pensons que ceux-ci devraient exister dans le cadre d'une seule entité continue. Et nous ne sommes peut-être pas encore là, mais Anthropic veut vraiment déplacer les choses dans cette direction", a déclaré Amodei. "Nous devrions avoir une transition plus fluide de cela aux modèles pré-formés - plutôt que" voici une chose et voici B. ""
Alors que les sociétés d'IA comme Anthropic continuent de sortir de meilleurs modèles, Amodei voit un énorme potentiel de perturbation dans les industries. "Nous travaillons avec certaines sociétés pharmaceutiques pour utiliser Claude pour rédiger des études cliniques, et ils ont été en mesure de réduire le temps nécessaire pour rédiger le rapport d'étude clinique de 12 semaines à trois jours", a-t-il déclaré.
Il envisage une «renaissance de l'innovation perturbatrice» dans les applications de l'IA dans des secteurs comme le juridique, la finance, l'assurance, la productivité, les logiciels et l'énergie. "Je pense qu'il y aura - en gros, une renaissance de l'innovation perturbatrice dans l'espace d'application de l'IA. Et nous voulons l'aider, nous voulons tout soutenir", a-t-il conclu.
Lisez notre couverture complète du sommet de l'action de l'intelligence artificielle à Paris.
TechCrunch a une newsletter axée sur l'IA! Inscrivez-vous ici pour l'obtenir dans votre boîte de réception tous les mercredis.
Article connexe
Usine de BD IA : Créez facilement des BD gratuitement avec l'IA
Dans le monde numérique d'aujourd'hui, la fusion de l'intelligence artificielle et des arts créatifs ouvre de nouvelles voies fascinantes pour l'expression. AI Comic Factory est à la pointe de cette r
Robots de trading IA : Peut-on vraiment gagner un mois de salaire en un jour ?
Si vous avez déjà rêvé de gagner un mois de salaire en une seule journée, le monde des robots de trading IA pourrait sembler être le ticket d'or. Ces systèmes automatisés promettent d'exploiter l'inte
LinkFi : Révolutionner la DeFi avec l'IA et l'apprentissage automatique
Dans le monde en constante évolution de la finance décentralisée (DeFi), rester en avance est crucial. Voici LinkFi, un projet qui secoue le secteur en intégrant l'intelligence artificielle (IA) et l'
commentaires (50)
0/200
GeorgeMiller
10 avril 2025 00:00:00 UTC
Dario Amodei's comments at the AI Action Summit were a wake-up call. His urgency about understanding AI's rapid development is something we should all take seriously. It's a bit scary but also motivating. More events like this, please!
0
EricYoung
10 avril 2025 00:00:00 UTC
AIアクションサミットでのダリオ・アモデイの発言は目覚まし時計のようなものでした。AIの急速な発展を理解する緊急性についての彼の言葉は、私たち全員が真剣に受け止めるべきです。少し怖いけど、やる気も出ます。これと同じようなイベントをもっと開催してほしいです!
0
MarkWilson
10 avril 2025 00:00:00 UTC
AI 액션 서밋에서 다리오 아모데이의 발언은 경종을 울리는 것 같았어요. AI의 빠른 발전을 이해하는 긴박함에 대한 그의 말은 우리 모두가 진지하게 받아들여야 해요. 조금 무섭지만 동기부여도 돼요. 이런 이벤트를 더 많이 열어주세요!
0
BenWalker
10 avril 2025 00:00:00 UTC
Os comentários de Dario Amodei no AI Action Summit foram um alerta. A urgência dele sobre entender o desenvolvimento rápido da IA é algo que todos devemos levar a sério. É um pouco assustador, mas também motivador. Por favor, mais eventos como este!
0
AvaHill
10 avril 2025 00:00:00 UTC
Los comentarios de Dario Amodei en el AI Action Summit fueron una llamada de atención. Su urgencia sobre entender el rápido desarrollo de la IA es algo que todos deberíamos tomar en serio. Es un poco aterrador pero también motivador. ¡Por favor, más eventos como este!
0
JustinWilson
10 avril 2025 00:00:00 UTC
Just heard about AI Power Surge from Anthropic's CEO, and it's eye-opening. The race to understand AI is real and we're missing out big time. This tool really makes you think about the urgency of AI development. Maybe it's time to get more involved? Definitely worth checking out!
0
Juste après que le sommet de l'action de l'IA à Paris s'est terminé, le co-fondateur et PDG d'Anthropic, Dario Amodei, n'a pas retenu. Il a qualifié l'événement de "l'occasion manquée" et a souligné que nous devons augmenter l'orientation et l'urgence sur plusieurs questions clés, compte tenu de la vitesse à laquelle AI Tech évolue. Il a partagé ces réflexions dans une déclaration publiée mardi.
Anthropic s'est associé à la startup française Dust pour un événement axé sur les développeurs à Paris, où TechCrunch a pu discuter avec Amodei sur scène. Il a partagé son point de vue et a poussé à une approche équilibrée de l'innovation et de la gouvernance de l'IA, évitant à la fois l'optimisme extrême et les critiques sévères.
Amodei, qui était un neuroscientifique, a déclaré: "J'ai essentiellement regardé à l'intérieur du cerveau réel pour gagner ma vie. Et maintenant, nous regardons à l'intérieur des cerveaux artificiels pour vivre. Nous allons donc, au cours des prochains mois, des avancées passionnantes dans le domaine de l'interprétabilité - où nous commençons vraiment à comprendre comment les modèles fonctionnent." Mais il a également souligné que c'était une course. "C'est une course entre rendre les modèles plus puissants, ce qui est incroyablement rapide pour nous et incroyablement rapide pour les autres - vous ne pouvez pas vraiment ralentir, non? ... Notre compréhension doit suivre notre capacité à construire des choses. Je pense que c'est le seul moyen", a-t-il ajouté.
Depuis le premier sommet de l'IA à Bletchley, au Royaume-Uni, la conversation autour de la gouvernance de l'IA a beaucoup changé, influencé par le climat géopolitique actuel. Le vice-président américain JD Vance, s'exprimant lors du sommet de l'action de l'IA, a déclaré: "Je ne suis pas ici ce matin pour parler de la sécurité de l'IA, qui était le titre de la conférence il y a quelques années. Je suis ici pour parler de l'opportunité de l'IA."
Amodei, cependant, essaie de combler le fossé entre la sécurité et l'opportunité. Il pense que se concentrer davantage sur la sécurité peut être une opportunité. "Lors du sommet original, le Sommet britannique de Bletchley, il y a eu beaucoup de discussions sur les tests et la mesure pour divers risques. Et je ne pense pas que ces choses aient ralenti la technologie", a-t-il déclaré lors de l'événement anthropique. "Si quelque chose, faire ce type de mesure nous a aidés à mieux comprendre nos modèles, ce qui nous aide à produire de meilleurs modèles."
Même en mettant l'accent sur la sécurité, Amodei a clairement indiqué qu'Anthropic est toujours entièrement dans les modèles d'IA frontaliers de construction. "Je ne veux rien faire pour réduire la promesse. Nous fournissons des modèles chaque jour sur lesquels les gens peuvent s'appuyer et qui sont utilisés pour faire des choses incroyables. Et nous ne devrions certainement pas arrêter de le faire", a-t-il déclaré. Plus tard, il a ajouté: "Quand les gens parlent beaucoup des risques, je suis en quelque sorte ennuyé, et je dis:" Oh, mec, personne n'a vraiment fait du bon travail pour vraiment expliquer à quel point cette technologie pourrait être formidable. ""
Lorsque le sujet s'est tourné vers les récents modèles de Chinois LLM-Maker Deepseek, Amodei a minimisé ses réalisations, appelant la réaction du public "inorganique". Il a dit: "Honnêtement, ma réaction a été très peu. Nous avions vu V3, qui est le modèle de base de Deepseek R1, en décembre. Et c'était un modèle impressionnant. Le modèle qui a été publié en décembre était sur ce type de courbe de réduction des coûts très normale que nous avons vue dans nos modèles et autres modèles." Ce qui a attiré son attention, c'est que le modèle ne provenait pas des "trois ou quatre laboratoires frontaliers" habituels aux États-Unis, comme Google, Openai et Anthropic. Il a exprimé son inquiétude concernant les gouvernements autoritaires qui dominent la technologie. Quant aux frais de formation réclamés de Deepseek, il les a rejetés comme "tout simplement pas exacts et non basés sur des faits".
Bien qu'Amodei n'ait pas annoncé de nouveaux modèles lors de l'événement, il a fait allusion aux prochaines versions avec des capacités de raisonnement améliorées. "Nous nous concentrons généralement sur l'essayage de faire notre propre vision des modèles de raisonnement qui sont mieux différenciés. Nous nous soucions de nous assurer que nous avons suffisamment de capacité, que les modèles deviennent plus intelligents et que nous nous inquiétons des choses de sécurité", a-t-il déclaré.
Anthropic aborde également le défi de sélection du modèle. Si vous êtes un utilisateur Chatgpt Plus, par exemple, il peut être difficile de décider quel modèle utiliser pour votre prochain message.
Amodei a remis en question la distinction entre les modèles normaux et le raisonnement. "Nous avons été un peu perplexes par l'idée qu'il existe des modèles normaux et qu'il existe des modèles de raisonnement et qu'ils sont en quelque sorte différents les uns des autres", a-t-il déclaré. "Si je vous parle, vous n'avez pas deux cerveaux et que l'un d'eux répond tout de suite et comme, l'autre attend plus longtemps."
Il pense qu'il devrait y avoir une transition plus fluide entre les modèles pré-formés comme Claude 3.5 Sonnet ou GPT-4O et les modèles formés avec l'apprentissage du renforcement qui peut produire une chaîne de pensées (COT), comme O1 d'Openai ou R1 de Deepseek. "Nous pensons que ceux-ci devraient exister dans le cadre d'une seule entité continue. Et nous ne sommes peut-être pas encore là, mais Anthropic veut vraiment déplacer les choses dans cette direction", a déclaré Amodei. "Nous devrions avoir une transition plus fluide de cela aux modèles pré-formés - plutôt que" voici une chose et voici B. ""
Alors que les sociétés d'IA comme Anthropic continuent de sortir de meilleurs modèles, Amodei voit un énorme potentiel de perturbation dans les industries. "Nous travaillons avec certaines sociétés pharmaceutiques pour utiliser Claude pour rédiger des études cliniques, et ils ont été en mesure de réduire le temps nécessaire pour rédiger le rapport d'étude clinique de 12 semaines à trois jours", a-t-il déclaré.
Il envisage une «renaissance de l'innovation perturbatrice» dans les applications de l'IA dans des secteurs comme le juridique, la finance, l'assurance, la productivité, les logiciels et l'énergie. "Je pense qu'il y aura - en gros, une renaissance de l'innovation perturbatrice dans l'espace d'application de l'IA. Et nous voulons l'aider, nous voulons tout soutenir", a-t-il conclu.
Lisez notre couverture complète du sommet de l'action de l'intelligence artificielle à Paris.
TechCrunch a une newsletter axée sur l'IA! Inscrivez-vous ici pour l'obtenir dans votre boîte de réception tous les mercredis.




Dario Amodei's comments at the AI Action Summit were a wake-up call. His urgency about understanding AI's rapid development is something we should all take seriously. It's a bit scary but also motivating. More events like this, please!




AIアクションサミットでのダリオ・アモデイの発言は目覚まし時計のようなものでした。AIの急速な発展を理解する緊急性についての彼の言葉は、私たち全員が真剣に受け止めるべきです。少し怖いけど、やる気も出ます。これと同じようなイベントをもっと開催してほしいです!




AI 액션 서밋에서 다리오 아모데이의 발언은 경종을 울리는 것 같았어요. AI의 빠른 발전을 이해하는 긴박함에 대한 그의 말은 우리 모두가 진지하게 받아들여야 해요. 조금 무섭지만 동기부여도 돼요. 이런 이벤트를 더 많이 열어주세요!




Os comentários de Dario Amodei no AI Action Summit foram um alerta. A urgência dele sobre entender o desenvolvimento rápido da IA é algo que todos devemos levar a sério. É um pouco assustador, mas também motivador. Por favor, mais eventos como este!




Los comentarios de Dario Amodei en el AI Action Summit fueron una llamada de atención. Su urgencia sobre entender el rápido desarrollo de la IA es algo que todos deberíamos tomar en serio. Es un poco aterrador pero también motivador. ¡Por favor, más eventos como este!




Just heard about AI Power Surge from Anthropic's CEO, and it's eye-opening. The race to understand AI is real and we're missing out big time. This tool really makes you think about the urgency of AI development. Maybe it's time to get more involved? Definitely worth checking out!












