Maison Nouvelles L'informatique de l'IA pour consommer la puissance de plusieurs New York d'ici 2026, explique le fondateur

L'informatique de l'IA pour consommer la puissance de plusieurs New York d'ici 2026, explique le fondateur

18 avril 2025
StevenHill
88

Nvidia et les partenaires développent les centres de données d'IA dans le monde entier

Nvidia, ainsi que ses partenaires et clients, ont activement élargi la taille des installations informatiques du monde entier pour répondre aux fortes exigences informatiques de la formation de modèles d'intelligence artificielle massive (IA) comme GPT-4. Cette expansion devrait devenir encore plus cruciale car des modèles d'IA supplémentaires sont déployés dans la production, selon Thomas Graham, co-fondateur de la Lightmatter de startup de calcul optique. Dans une récente interview à New York avec Mandeep Singh, analyste de technologie senior de Bloomberg Intelligence, Graham a souligné le besoin croissant de ressources informatiques.

"La demande de plus de calcul ne concerne pas seulement les lois à l'échelle; il s'agit également de déployer ces modèles d'IA maintenant", a expliqué Graham. Singh s'est renseigné sur l'avenir des modèles de grande langue (LLMS) comme GPT-4 et s'ils continueraient à croître en taille. En réponse, Graham a déplacé l'accent sur l'application pratique de l'IA, soulignant l'importance de l'inférence, ou la phase de déploiement, qui nécessite un pouvoir de calcul substantiel.

"Si vous considérez la formation comme une R&D, l'inférence est essentiellement un déploiement. Au fur et à mesure que vous vous déployez, vous aurez besoin d'ordinateurs à grande échelle pour exécuter vos modèles", a déclaré Graham lors du "Gen AI: peut-il tenir la promesse de productivité?" Conférence organisée par Bloomberg Intelligence.

La perspective de Graham s'aligne sur celle du PDG de Nvidia, Jensen Huang, qui a mis en évidence à Wall Street selon laquelle les formes d'IA "agentiques" avancées nécessiteront non seulement une formation plus sophistiquée, mais également des capacités d'inférence considérablement améliorées, entraînant une augmentation exponentielle des exigences de calcul.

Thomas Graham, co-fondateur de Lightmatter, s'exprimant lors d'une conférence.

"Si vous considérez la formation comme une R&D, l'inférence est vraiment un déploiement, et comme vous le déplacez, vous aurez besoin de grands ordinateurs pour exécuter vos modèles", a déclaré Graham. Photo: Bloomberg, gracieuseté de Craig Warga

Le rôle de Lightmatter dans l'infrastructure d'IA

Fondée en 2018, Lightmatter est à l'avant-garde du développement de la technologie des puces qui utilise des connexions optiques pour relier plusieurs processeurs sur une seule matrice de semi-conducteurs. Ces interconnexions optiques peuvent transférer des données plus efficacement que les fils de cuivre traditionnels, en utilisant moins d'énergie. Cette technologie peut rationaliser les connexions à l'intérieur et entre les racks de centres de données, améliorant l'efficacité globale et l'économie du centre de données, selon Graham.

"En remplaçant les traces de cuivre dans les centres de données - à la fois sur la carte de circuit imprimé du serveur et dans le câblage entre les racks - avec la fibre optique, nous pouvons augmenter considérablement la bande passante", a déclaré Graham à Singh. LightMatter collabore actuellement avec diverses entreprises technologiques sur la conception de nouveaux centres de données, et Graham a noté que ces installations sont en cours de construction à partir de zéro. La société a déjà établi un partenariat avec Global Foundries, un fabricant de semi-conducteurs contractuels avec des opérations dans le nord de New York, qui sert des clients comme des micro appareils avancés.

Bien que Graham n'ait pas divulgué des partenaires et des clients spécifiques au-delà de cette collaboration, il a laissé entendre que LightMatter travaille avec des fournisseurs de silicium tels que Broadcom ou Marvell pour créer des composants personnalisés pour des géants technologiques comme Google, Amazon et Microsoft, qui conçoivent leurs propres processeurs de centres de données.

L'échelle et l'avenir des centres de données d'IA

Pour illustrer l'ampleur du déploiement de l'IA, Graham a souligné qu'au moins une douzaine de nouveaux centres de données d'IA sont prévus ou en construction, chacun nécessitant un gigawatt de puissance. "Pour le contexte, New York utilise environ cinq gigawatts de puissance en moyenne. Donc, nous parlons de la consommation d'énergie de plusieurs villes de New York", a-t-il déclaré. Il prédit qu'en 2026, le traitement mondial de l'IA exigera 40 gigawatts de pouvoir, équivalent à huit villes de New York, en particulier pour les centres de données d'IA.

Lightmatter a récemment obtenu un investissement en capital-risque de 400 millions de dollars, évaluant la société à 4,4 milliards de dollars. Graham a mentionné que l'entreprise vise à démarrer la production "au cours des prochaines années".

Interrogé sur les perturbations potentielles des plans de Lightmatter, Graham a exprimé sa confiance dans le besoin continu d'élargir l'infrastructure informatique de l'IA. Cependant, il a reconnu qu'une percée dans les algorithmes d'IA nécessitant beaucoup moins de calcul ou d'obtention de l'intelligence générale artificielle (AGI) pourrait plus rapidement remettre en question les hypothèses actuelles sur la nécessité d'une croissance exponentielle de calcul.

Article connexe
AU AUTOMMANCE AI MARKETING: AUTURISEZ LES REVENUS SANS LA RIGER PLUS DE PERSONNEL AU AUTOMMANCE AI MARKETING: AUTURISEZ LES REVENUS SANS LA RIGER PLUS DE PERSONNEL Révolutionner votre stratégie marketing avec l'IA en 2025 Vous êtes désireux de transformer votre approche marketing et de voir vos revenus s'enfoncer sans embaucher plus de personnel? En 2025, l'intelligence artificielle remodèle comment les entreprises fonctionnent et se développent. Il est temps de se plonger dans l'automatisation du marketing de l'IA et de découvrir
Master Photoshop: comment fusionner les couches pour une modification efficace Master Photoshop: comment fusionner les couches pour une modification efficace Si vous plongez dans le monde de l'édition d'images numériques avec Adobe Photoshop, il est essentiel de maîtriser l'art de la gestion des couches. Que vous soyez un novice ou un pro chevronné, comprendre comment fusionner les couches peut transformer votre flux de travail de chaotique à rationalisé. À mesure que vos projets se développent en complexité
"Little Deddy" incarne la résilience et inspire Dans un monde rempli de défis, la capacité de rebondir de l'adversité est une compétence cruciale. Tout comme les paroles d'une chanson qui nous inspirent, nous comprenez, appliquant et incarnant la résilience nous permet de naviguer dans les rebondissements imprévisibles de la vie avec force, espoir et détermination. Ce
Commentaires (20)
0/200
FrankClark
FrankClark 18 avril 2025 13:31:52 UTC

The idea that AI computing might consume power equivalent to multiple NYCs by 2026 is mind-blowing! It's exciting to see Nvidia pushing the boundaries, but also a bit scary thinking about the energy impact. Can't wait to see how this unfolds! 🌍💡

GaryGonzalez
GaryGonzalez 19 avril 2025 13:09:03 UTC

2026年までにAIの計算が複数のニューヨーク市の電力を消費するかもしれないという考えは驚くべきものだ!Nvidiaが境界を押し広げるのを見るのはワクワクするけど、エネルギーへの影響を考えるとちょっと怖い。どうなるか楽しみだね!🌍💡

RaymondWalker
RaymondWalker 19 avril 2025 14:32:21 UTC

¡La idea de que el cómputo de IA podría consumir energía equivalente a múltiples ciudades de Nueva York para 2026 es alucinante! Es emocionante ver a Nvidia empujando los límites, pero también un poco aterrador pensar en el impacto energético. ¡No puedo esperar a ver cómo se desarrolla esto! 🌍💡

JamesGreen
JamesGreen 19 avril 2025 02:08:23 UTC

Die Vorstellung, dass die KI-Rechenleistung bis 2026 Energie verbrauchen könnte, die mehreren New Yorks entspricht, ist umwerfend! Es ist aufregend zu sehen, wie Nvidia die Grenzen verschiebt, aber auch ein bisschen beängstigend, wenn man an den Energieeinfluss denkt. Kann es kaum erwarten zu sehen, wie sich das entwickelt! 🌍💡

LarryWilliams
LarryWilliams 18 avril 2025 14:24:22 UTC

L'idée que le calcul de l'IA pourrait consommer une puissance équivalente à plusieurs villes de New York d'ici 2026 est hallucinante ! C'est excitant de voir Nvidia repousser les limites, mais aussi un peu effrayant de penser à l'impact énergétique. J'ai hâte de voir comment cela va se dérouler ! 🌍💡

TerryYoung
TerryYoung 20 avril 2025 00:05:08 UTC

This AI expansion sounds insane! By 2026, the power consumption could match multiple New York Cities? That's wild! I'm excited to see what kind of AI models they'll be training, but also kinda worried about the environmental impact. Can't wait to see how this pans out! 🤯

Back to Top
OR