Votre entreprise va compter sur des centaines de modèles d'IA. Voici pourquoi

Dans le paysage technologique d'aujourd'hui, tout comme les entreprises jonglent souvent avec plusieurs services cloud et bases de données pour différents besoins, une tendance croissante se dessine vers l'utilisation de multiples modèles AI pour diverses finalités. Une récente enquête impliquant plus de 1 000 décideurs informatiques révèle que les adoptants les plus avancés de l'AI gèrent actuellement des centaines de modèles simultanément.
Nous sommes entrés dans ce qu'on appelle l'ère du "multi-modèle AI". Selon l'enquête de S&P Global Market Intelligence, sponsorisée par Vultr, le nombre moyen de modèles AI en usage s'élève à 158, avec des prévisions indiquant que ce chiffre grimpera à 176 au cours de l'année prochaine.
L'enquête a également révélé que les utilisateurs d'AI les plus avancés opèrent actuellement avec une moyenne de 175 modèles, avec des projections d'augmentation de 14 % pour atteindre 200 modèles au cours de l'année à venir. Ceux situés au deuxième niveau de maturité en matière d'AI anticipent une croissance annuelle de 18 % du nombre de modèles. De plus, les deux tiers des managers interrogés (66 %) développent leurs propres modèles ou utilisent des options open-source.
Il existe des raisons solides pour utiliser plusieurs modèles dans différentes applications. Par exemple, une étude du MIT met en lumière un système qui emploie trois modèles entraînés sur des données de langage, de vision et d'action pour aider les robots à planifier et exécuter des tâches dans des environnements domestiques, de construction et de fabrication. "Chaque modèle de base capture un aspect différent du processus de prise de décision et collabore lorsqu'il est temps de prendre des décisions," ont expliqué les chercheurs du MIT.
Cette tendance conduit à ce qu'on appelle une approche "ensemble" de l'AI, où plusieurs modèles travaillent ensemble pour produire des résultats, comme l'a décrit Erica Dingman dans un article de MovableInk. "La différence entre l'utilisation d'un modèle unique et d'un modèle d'ensemble est comparable à la différence entre un violon solo et un orchestre complet," a-t-elle noté. "Bien que chaque instrument ait sa valeur, ensemble, ils créent quelque chose de véritablement magique." De plus, l'utilisation de divers ensembles de données et la mise à jour continue ainsi que l'entraînement d'un ensemble de modèles peuvent aider à atténuer ou éliminer les biais dans les résultats de l'AI.
L'adoption généralisée et la diversité des systèmes soutenant les modèles AI alimentent cette prolifération. L'AI est de plus en plus déployée à la périphérie, selon l'enquête de S&P et Vultr. "Les architectures AI distribuées, avec la périphérie jouant un rôle crucial dans les applications couvrant l'infrastructure d'une organisation, sont susceptibles de devenir la norme," ont déclaré les auteurs de l'enquête. Une majorité significative (85 %) des décideurs informatiques estiment que ce changement est probable ou extrêmement probable dans leurs environnements, avec 32 % le considérant comme "extrêmement probable".
L'enquête a identifié les organisations leaders dans l'adoption de l'AI, les qualifiant de pratiquant des "pratiques AI transformationnelles". La moitié de ces leaders obtiennent des performances "significativement meilleures" que leurs pairs de l'industrie au niveau opérationnel. Presque tous ces leaders ont signalé des améliorations dans leurs performances d'une année sur l'autre de 2022 à 2023 à travers divers indicateurs, y compris la satisfaction client (90 %), les revenus (91 %), la réduction des coûts/l'expansion des marges (88 %), la gestion des risques (87 %), le marketing (89 %) et la part de marché (89 %).
Dans l'ensemble des organisations interrogées, les dépenses en AI devraient dépasser les dépenses informatiques générales. Près de neuf entreprises sur dix (88 %) prévoient d'augmenter leurs dépenses en AI en 2025, avec 49 % anticipant des augmentations modérées à significatives.
Cependant, la croissance rapide de l'utilisation de l'AI entraîne des défis, notamment en ce qui concerne les infrastructures informatiques existantes. "En ce qui concerne les activités AI à forte demande comme l'inférence en temps réel, les répondants craignent que leur infrastructure actuelle ne soit pas suffisante," ont noté les auteurs de l'enquête. Les trois principales préoccupations incluent des ressources CPU ou GPU insuffisantes (65 %), des problèmes de localisation des données (53 %) et des problèmes de performance de stockage (50 %).
Les données qualitatives de l'enquête ont fait écho à ces préoccupations, les interviewés mentionnant des retards de planification pour des instances GPU de plus grande capacité dans les clouds publics et des impacts potentiels sur la disponibilité des données. De plus, il y a une inquiétude croissante concernant le coût de l'infrastructure. "Le coût devient souvent une préoccupation plus pressante une fois que les projets sont en production. Historiquement, les organisations ont eu du mal à prévoir ces coûts avec précision," ont conclu les auteurs.
Article connexe
Élevez Vos Images avec HitPaw AI Photo Enhancer : Un Guide Complet
Voulez-vous transformer votre expérience d'édition de photos ? Grâce à une intelligence artificielle de pointe, améliorer vos images est désormais sans effort. Ce guide détaillé explore le HitPaw AI P
Création musicale alimentée par l'IA : Créez des chansons et des vidéos sans effort
La création musicale peut être complexe, nécessitant du temps, des ressources et une expertise. L'intelligence artificielle a transformé ce processus, le rendant simple et accessible. Ce guide montre
Création de livres de coloriage alimentés par l'IA : Un guide complet
Concevoir des livres de coloriage est une entreprise gratifiante, combinant expression artistique et expériences apaisantes pour les utilisateurs. Cependant, le processus peut être laborieux. Heureuse
commentaires (44)
0/200
KennethJohnson
14 août 2025 15:00:59 UTC+02:00
It's wild how businesses are now juggling tons of AI models like they're cloud services! This article got me thinking—how do companies even keep track of all these models? 🤯 Sounds like a logistical nightmare, but super exciting for innovation!
0
DavidAllen
4 août 2025 08:01:00 UTC+02:00
Super interesting read! It’s wild to think businesses will juggle tons of AI models like they do cloud services now. Makes me wonder how they’ll keep all those models in sync without chaos. 🤯
0
AlbertHernández
31 juillet 2025 03:41:19 UTC+02:00
It's wild to think businesses will juggle hundreds of AI models like they're spinning plates! 😅 Curious how they'll manage the chaos—any tips for keeping it all streamlined?
0
StevenWilson
28 juillet 2025 03:19:30 UTC+02:00
It's wild to think businesses will juggle tons of AI models like they do cloud services now! 🤯 I wonder how they'll manage the chaos—hope there's a smart way to keep it all in sync!
0
MarkThomas
23 avril 2025 01:36:35 UTC+02:00
सैकड़ों AI मॉडल्स को मैनेज करना एक दुःस्वप्न की तरह लगता है, लेकिन यह टूल इसे संभव बनाता है! शुरुआत में थोड़ा ओवरव्हेल्मिंग होता है, लेकिन एक बार जब आप इसके आदी हो जाते हैं, तो यह काफी अच्छा होता है। बस चाहता हूँ कि इंटरफ़ेस थोड़ा और यूजर-फ्रेंडली हो। 😄
0
RyanAdams
21 avril 2025 04:20:52 UTC+02:00
Gerenciar centenas de modelos de IA parece um pesadelo, mas essa ferramenta faz parecer possível! No início é um pouco esmagador, mas depois que você pega o jeito, é bem legal. Só queria que a interface fosse um pouco mais amigável. 😎
0
Dans le paysage technologique d'aujourd'hui, tout comme les entreprises jonglent souvent avec plusieurs services cloud et bases de données pour différents besoins, une tendance croissante se dessine vers l'utilisation de multiples modèles AI pour diverses finalités. Une récente enquête impliquant plus de 1 000 décideurs informatiques révèle que les adoptants les plus avancés de l'AI gèrent actuellement des centaines de modèles simultanément.
Nous sommes entrés dans ce qu'on appelle l'ère du "multi-modèle AI". Selon l'enquête de S&P Global Market Intelligence, sponsorisée par Vultr, le nombre moyen de modèles AI en usage s'élève à 158, avec des prévisions indiquant que ce chiffre grimpera à 176 au cours de l'année prochaine.
L'enquête a également révélé que les utilisateurs d'AI les plus avancés opèrent actuellement avec une moyenne de 175 modèles, avec des projections d'augmentation de 14 % pour atteindre 200 modèles au cours de l'année à venir. Ceux situés au deuxième niveau de maturité en matière d'AI anticipent une croissance annuelle de 18 % du nombre de modèles. De plus, les deux tiers des managers interrogés (66 %) développent leurs propres modèles ou utilisent des options open-source.
Il existe des raisons solides pour utiliser plusieurs modèles dans différentes applications. Par exemple, une étude du MIT met en lumière un système qui emploie trois modèles entraînés sur des données de langage, de vision et d'action pour aider les robots à planifier et exécuter des tâches dans des environnements domestiques, de construction et de fabrication. "Chaque modèle de base capture un aspect différent du processus de prise de décision et collabore lorsqu'il est temps de prendre des décisions," ont expliqué les chercheurs du MIT.
Cette tendance conduit à ce qu'on appelle une approche "ensemble" de l'AI, où plusieurs modèles travaillent ensemble pour produire des résultats, comme l'a décrit Erica Dingman dans un article de MovableInk. "La différence entre l'utilisation d'un modèle unique et d'un modèle d'ensemble est comparable à la différence entre un violon solo et un orchestre complet," a-t-elle noté. "Bien que chaque instrument ait sa valeur, ensemble, ils créent quelque chose de véritablement magique." De plus, l'utilisation de divers ensembles de données et la mise à jour continue ainsi que l'entraînement d'un ensemble de modèles peuvent aider à atténuer ou éliminer les biais dans les résultats de l'AI.
L'adoption généralisée et la diversité des systèmes soutenant les modèles AI alimentent cette prolifération. L'AI est de plus en plus déployée à la périphérie, selon l'enquête de S&P et Vultr. "Les architectures AI distribuées, avec la périphérie jouant un rôle crucial dans les applications couvrant l'infrastructure d'une organisation, sont susceptibles de devenir la norme," ont déclaré les auteurs de l'enquête. Une majorité significative (85 %) des décideurs informatiques estiment que ce changement est probable ou extrêmement probable dans leurs environnements, avec 32 % le considérant comme "extrêmement probable".
L'enquête a identifié les organisations leaders dans l'adoption de l'AI, les qualifiant de pratiquant des "pratiques AI transformationnelles". La moitié de ces leaders obtiennent des performances "significativement meilleures" que leurs pairs de l'industrie au niveau opérationnel. Presque tous ces leaders ont signalé des améliorations dans leurs performances d'une année sur l'autre de 2022 à 2023 à travers divers indicateurs, y compris la satisfaction client (90 %), les revenus (91 %), la réduction des coûts/l'expansion des marges (88 %), la gestion des risques (87 %), le marketing (89 %) et la part de marché (89 %).
Dans l'ensemble des organisations interrogées, les dépenses en AI devraient dépasser les dépenses informatiques générales. Près de neuf entreprises sur dix (88 %) prévoient d'augmenter leurs dépenses en AI en 2025, avec 49 % anticipant des augmentations modérées à significatives.
Cependant, la croissance rapide de l'utilisation de l'AI entraîne des défis, notamment en ce qui concerne les infrastructures informatiques existantes. "En ce qui concerne les activités AI à forte demande comme l'inférence en temps réel, les répondants craignent que leur infrastructure actuelle ne soit pas suffisante," ont noté les auteurs de l'enquête. Les trois principales préoccupations incluent des ressources CPU ou GPU insuffisantes (65 %), des problèmes de localisation des données (53 %) et des problèmes de performance de stockage (50 %).
Les données qualitatives de l'enquête ont fait écho à ces préoccupations, les interviewés mentionnant des retards de planification pour des instances GPU de plus grande capacité dans les clouds publics et des impacts potentiels sur la disponibilité des données. De plus, il y a une inquiétude croissante concernant le coût de l'infrastructure. "Le coût devient souvent une préoccupation plus pressante une fois que les projets sont en production. Historiquement, les organisations ont eu du mal à prévoir ces coûts avec précision," ont conclu les auteurs.




It's wild how businesses are now juggling tons of AI models like they're cloud services! This article got me thinking—how do companies even keep track of all these models? 🤯 Sounds like a logistical nightmare, but super exciting for innovation!




Super interesting read! It’s wild to think businesses will juggle tons of AI models like they do cloud services now. Makes me wonder how they’ll keep all those models in sync without chaos. 🤯




It's wild to think businesses will juggle hundreds of AI models like they're spinning plates! 😅 Curious how they'll manage the chaos—any tips for keeping it all streamlined?




It's wild to think businesses will juggle tons of AI models like they do cloud services now! 🤯 I wonder how they'll manage the chaos—hope there's a smart way to keep it all in sync!




सैकड़ों AI मॉडल्स को मैनेज करना एक दुःस्वप्न की तरह लगता है, लेकिन यह टूल इसे संभव बनाता है! शुरुआत में थोड़ा ओवरव्हेल्मिंग होता है, लेकिन एक बार जब आप इसके आदी हो जाते हैं, तो यह काफी अच्छा होता है। बस चाहता हूँ कि इंटरफ़ेस थोड़ा और यूजर-फ्रेंडली हो। 😄




Gerenciar centenas de modelos de IA parece um pesadelo, mas essa ferramenta faz parecer possível! No início é um pouco esmagador, mas depois que você pega o jeito, é bem legal. Só queria que a interface fosse um pouco mais amigável. 😎












