option
Maison
Nouvelles
Deepseek Shakes Ai Industrie: le prochain saut d'IA peut dépendre d'une augmentation du calcul à l'inférence, pas de plus de données

Deepseek Shakes Ai Industrie: le prochain saut d'IA peut dépendre d'une augmentation du calcul à l'inférence, pas de plus de données

18 avril 2025
151

Deepseek Shakes Ai Industrie: le prochain saut d'IA peut dépendre d'une augmentation du calcul à l'inférence, pas de plus de données

L'industrie de l'IA est en constante évolution, et 2025 apporte des développements bouleversants qui secouent le secteur. Un bouleversement majeur est survenu lorsque le laboratoire chinois d'IA, DeepSeek, a lâché une bombe avec un nouveau modèle qui a provoqué une chute de 17 % de l'action Nvidia et affecté d'autres actions de centres de données IA. Pourquoi tout ce buzz autour du modèle de DeepSeek ? Il offre des performances de premier ordre à une fraction du coût de ses concurrents américains, suscitant une tempête de discussions sur ce que cela signifie pour l'avenir des centres de données IA.

Mais pour vraiment comprendre ce que fait DeepSeek, il faut prendre du recul et examiner la situation dans son ensemble. Le monde de l'IA est confronté à une pénurie de données d'entraînement. Les grands acteurs ont déjà exploité la majeure partie des données publiques d'Internet, ce qui signifie que nous atteignons une limite dans les améliorations du pré-entraînement. En conséquence, l'industrie change de cap vers le "calcul au moment du test" (TTC). Considérez cela comme des modèles d'IA prenant un moment pour "réfléchir" avant de répondre, comme avec la série "o" d'OpenAI. On espère que le TTC pourra offrir le même type d'améliorations d'échelle que le pré-entraînement autrefois, ouvrant potentiellement la voie à la prochaine grande vague de percées en IA.

Ces changements signalent deux grandes évolutions : premièrement, les laboratoires à plus petit budget entrent désormais dans la course, en proposant des modèles de pointe. Deuxièmement, le TTC devient la nouvelle frontière pour faire avancer l'IA. Décomposons ces tendances et ce qu'elles pourraient signifier pour le paysage et le marché de l'IA.

Implications pour l'industrie de l'IA

Nous pensons que le passage au TTC et l'intensification de la concurrence entre les modèles de raisonnement pourraient remodeler le paysage de l'IA sur plusieurs fronts : matériel, plateformes cloud, modèles de base et logiciels d'entreprise.

1. Matériel (GPU, puces dédiées et infrastructure de calcul)

Le passage au TTC pourrait changer les besoins en matériel des entreprises d'IA et la manière dont elles le gèrent. Au lieu d'investir massivement dans des clusters de GPU toujours plus grands pour l'entraînement, elles pourraient se concentrer davantage sur le renforcement de leurs capacités d'inférence pour répondre aux exigences du TTC. Bien que les GPU resteront cruciaux pour l'inférence, la différence entre les charges de travail d'entraînement et d'inférence pourrait affecter la configuration et l'utilisation de ces puces. Les charges d'inférence étant plus imprévisibles et "en pics", la planification de la capacité pourrait devenir plus complexe.

Nous pensons également que ce changement pourrait stimuler le marché des matériels spécifiquement conçus pour l'inférence à faible latence, comme les ASICs. À mesure que le TTC devient plus crucial que la capacité d'entraînement, la domination des GPU à usage général pourrait commencer à décliner, ouvrant la voie aux fabricants de puces d'inférence spécialisées.

2. Plateformes cloud : Hyperscalers (AWS, Azure, GCP) et calcul cloud

Un obstacle majeur à l'adoption de l'IA dans les entreprises, outre les problèmes de précision, est la fiabilité des API d'inférence. Des problèmes comme des temps de réponse incohérents, des limites de débit et des difficultés avec les requêtes simultanées peuvent être un véritable casse-tête. Le TTC pourrait aggraver ces problèmes. Dans ce scénario, un fournisseur de cloud capable de garantir une haute qualité de service (QoS) pour résoudre ces problèmes pourrait prendre une longueur d'avance.

Fait intéressant, même si de nouvelles méthodes rendent l'IA plus efficace, elles pourraient ne pas réduire la demande de matériel. Selon le paradoxe de Jevons, où une plus grande efficacité entraîne une consommation accrue, des modèles d'inférence plus efficaces pourraient inciter davantage de développeurs à utiliser des modèles de raisonnement, augmentant ainsi la demande de puissance de calcul. Nous pensons que les récentes améliorations des modèles pourraient stimuler la demande de calcul cloud pour l'IA, tant pour l'inférence que pour l'entraînement de modèles plus petits et spécialisés.

3. Fournisseurs de modèles de base (OpenAI, Anthropic, Cohere, DeepSeek, Mistral)

Si de nouveaux entrants comme DeepSeek peuvent rivaliser avec les grands acteurs à une fraction du coût, le monopole des modèles pré-entraînés propriétaires pourrait commencer à s'effriter. Nous pouvons également nous attendre à davantage d'innovations dans le TTC pour les modèles de transformateurs, et comme DeepSeek l'a montré, ces innovations peuvent venir de sources inattendues en dehors des suspects habituels en IA.

4. Adoption de l'IA en entreprise et SaaS (couche applicative)

Étant donné les origines chinoises de DeepSeek, leurs produits feront probablement l'objet d'un examen continu en matière de sécurité et de confidentialité. Leurs API et services de chatbot basés en Chine ont peu de chances de séduire les clients d'IA d'entreprise aux États-Unis, au Canada ou dans d'autres pays occidentaux. De nombreuses entreprises bloquent déjà le site web et les applications de DeepSeek. Même lorsque les modèles de DeepSeek sont hébergés par des tiers dans des centres de données occidentaux, ils pourraient être examinés de près, ce qui pourrait limiter leur adoption en entreprise. Les chercheurs soulèvent des problèmes comme le jailbreaking, les biais et la génération de contenus nuisibles. Bien que certaines entreprises puissent expérimenter avec les modèles de DeepSeek, une adoption généralisée semble peu probable en raison de ces préoccupations.

D'un autre côté, la spécialisation verticale gagne du terrain. Par le passé, les applications verticales construites sur des modèles de base se concentraient sur la création de flux de travail sur mesure. Des techniques comme la génération augmentée par récupération (RAG), le routage de modèles, l'appel de fonctions et les garde-fous ont été essentielles pour adapter les modèles généralisés à ces cas d'utilisation spécifiques. Mais il y a toujours eu la crainte que des améliorations majeures des modèles sous-jacents ne rendent ces applications obsolètes. Sam Altman a un jour averti qu'un grand bond en avant dans les capacités des modèles pourrait "écraser" ces innovations.

Cependant, si nous observons un plafonnement des gains en calcul d'entraînement, la menace d'être rapidement dépassé diminue. Dans un monde où les améliorations de performance des modèles proviennent des optimisations du TTC, de nouvelles opportunités pourraient émerger pour les acteurs de la couche applicative. Des innovations comme l'optimisation structurée des prompts, les stratégies de raisonnement conscientes de la latence et les techniques d'échantillonnage efficaces pourraient offrir d'importants gains de performance dans des secteurs spécifiques.

Ces améliorations sont particulièrement pertinentes pour les modèles axés sur le raisonnement comme GPT-4o d'OpenAI et DeepSeek-R1, qui peuvent prendre plusieurs secondes à répondre. Dans les applications en temps réel, réduire la latence et améliorer la qualité de l'inférence dans un domaine spécifique pourrait offrir un avantage concurrentiel. En conséquence, les entreprises ayant une connaissance approfondie d'un domaine pourraient jouer un rôle crucial dans l'optimisation de l'efficacité de l'inférence et l'ajustement des résultats.

Le travail de DeepSeek montre que nous nous éloignons de la dépendance exclusive à un pré-entraînement accru pour améliorer la qualité des modèles. Au lieu de cela, le TTC devient de plus en plus important. Bien qu'il ne soit pas clair si les modèles de DeepSeek seront largement adoptés dans les logiciels d'entreprise en raison de l'examen auquel ils sont soumis, leur influence sur l'amélioration d'autres modèles devient de plus en plus évidente.

Nous pensons que les innovations de DeepSeek poussent les laboratoires d'IA établis à adopter des techniques similaires, complétant leurs avantages matériels existants. La baisse prévue des coûts des modèles semble stimuler une utilisation accrue des modèles, suivant le modèle du paradoxe de Jevons.

Pashootan Vaezipoor est responsable technique chez Georgian.

Article connexe
DeepSeek-V3 Dévoilé : Comment la Conception d'IA Consciente du Matériel Réduit les Coûts et Améliore les Performances DeepSeek-V3 Dévoilé : Comment la Conception d'IA Consciente du Matériel Réduit les Coûts et Améliore les Performances DeepSeek-V3 : Un Bond Économique dans le Développement de l'IAL'industrie de l'IA est à un tournant. Alors que les grands modèles de langage (LLMs) deviennent plus puissants, leurs besoins en calcul o
DeepSeek-GRM : Révolutionne l'IA scalable et rentable pour les entreprises DeepSeek-GRM : Révolutionne l'IA scalable et rentable pour les entreprises Si vous dirigez une entreprise, vous savez à quel point il peut être difficile d'intégrer l'intelligence artificielle (IA) dans vos opérations. Les coûts élevés et la complexité te
La nouvelle technique permet à Deepseek et à d'autres modèles de répondre aux requêtes sensibles La nouvelle technique permet à Deepseek et à d'autres modèles de répondre aux requêtes sensibles La suppression des préjugés et de la censure des modèles de grands langues (LLM) comme Deepseek de la Chine est un défi complexe qui a attiré l'attention des décideurs américains et des chefs d'entreprise, qui le considèrent comme une menace potentielle de la sécurité nationale. Un rapport récent d'un comité restreint du Congrès américain étiqueté Deeps
commentaires (32)
0/200
HenryDavis
HenryDavis 31 juillet 2025 13:35:39 UTC+02:00

DeepSeek's new model sounds like a game-changer! A 17% Nvidia stock dip is wild—wonder how this’ll shift the AI race. More compute at inference? Mind blown! 🤯

JoseGonzalez
JoseGonzalez 29 juillet 2025 14:25:16 UTC+02:00

Wow, DeepSeek's new model sounds like a game-changer! That 17% Nvidia stock dip is wild—makes me wonder if we're hitting a compute bottleneck. Anyone else curious how this shifts the AI race? 🤔

BrianMartinez
BrianMartinez 27 avril 2025 03:02:24 UTC+02:00

¡El nuevo modelo de DeepSeek está sacudiendo la industria de la IA! Es increíble ver cómo baja la acción de Nvidia por esto. Me pregunto si más capacidad de cómputo en la inferencia será realmente la próxima gran cosa o solo un hype. De cualquier manera, es emocionante ver cómo evoluciona la industria! 🚀

GeorgeKing
GeorgeKing 25 avril 2025 04:22:57 UTC+02:00

DeepSeek's new model is shaking up the AI industry! It's wild to see Nvidia's stock dip because of this. I'm curious if more compute at inference will really be the next big thing or if it's just hype. Either way, it's exciting to watch the industry evolve! 🚀

GeorgeNelson
GeorgeNelson 23 avril 2025 16:51:14 UTC+02:00

O novo modelo da DeepSeek está abalando a indústria de IA! É louco ver a queda das ações da Nvidia por causa disso. Estou curioso se mais poder de computação na inferência será realmente a próxima grande coisa ou se é apenas hype. De qualquer forma, é emocionante ver a evolução da indústria! 🚀

GeorgeWilson
GeorgeWilson 23 avril 2025 16:44:57 UTC+02:00

DeepSeek의 새로운 모델이 AI 산업을 흔들고 있어요! Nvidia의 주식이 이 때문에 떨어지는 걸 보니 정말 놀랍네요. 추론 시 더 많은 계산 능력이 정말 다음 큰 변화가 될지, 아니면 그냥 과대광고일지 궁금해요. 어쨌든 산업이 진화하는 걸 보는 건 흥미로워요! 🚀

Retour en haut
OR