AI Computing para consumir la potencia de múltiples NYC para 2026, dice el fundador
18 de abril de 2025
StevenHill
88
NVIDIA y socios amplían los centros de datos de IA en todo el mundo
Nvidia, junto con sus socios y clientes, ha estado expandiendo activamente el tamaño de las instalaciones informáticas en todo el mundo para satisfacer las altas demandas computacionales de capacitación de modelos de inteligencia artificial (IA) masiva como GPT-4. Esta expansión se volverá aún más crucial a medida que los modelos de IA adicionales se implementan en producción, según Thomas Graham, cofundador de la Lightmatter de inicio de la computación óptica. En una entrevista reciente en Nueva York con Mandeep Singh, analista senior de tecnología de Bloomberg Intelligence, Graham destacó la creciente necesidad de recursos computacionales.
"La demanda de más cómputo no es solo de escalar leyes; también se trata de desplegar estos modelos de IA ahora", explicó Graham. Singh preguntó sobre el futuro de los modelos de idiomas grandes (LLM) como GPT-4 y si continuarían creciendo en tamaño. En respuesta, Graham cambió el enfoque a la aplicación práctica de la IA, enfatizando la importancia de la inferencia o la fase de implementación, que requiere una potencia computacional sustancial.
"Si considera la capacitación como I + D, la inferencia es esencialmente una implementación. A medida que implementa, necesitará computadoras a gran escala para ejecutar sus modelos", dijo Graham durante la "Gen AI: ¿Puede cumplir la promesa de productividad?" Conferencia organizada por Bloomberg Intelligence.
La perspectiva de Graham se alinea con la del CEO de NVIDIA, Jensen Huang, quien ha enfatizado a Wall Street que avanzar en las formas de IA "agente" necesitará no solo una capacitación más sofisticada, sino también capacidades de inferencia significativamente mejoradas, lo que dará como resultado un aumento exponencial en los requisitos de cómputo.

"Si ve la capacitación como I + D, la inferencia es realmente una implementación, y mientras lo implementa, necesitará computadoras grandes para ejecutar sus modelos", dijo Graham. Foto: Bloomberg, cortesía de Craig Warga
El papel de Lightmatter en la infraestructura de IA
Fundada en 2018, LightMatter está a la vanguardia del desarrollo de la tecnología de chips que utiliza conexiones ópticas para vincular múltiples procesadores en un solo dado de semiconductores. Estas interconexiones ópticas pueden transferir datos de manera más eficiente que los cables de cobre tradicionales, utilizando menos energía. Esta tecnología puede optimizar las conexiones dentro y entre los bastidores de centros de datos, mejorando la eficiencia general y la economía del centro de datos, según Graham.
"Al reemplazar las trazas de cobre en los centros de datos, tanto en la placa de circuito impreso del servidor como en el cableado entre bastidores, con fibra óptica, podemos aumentar drásticamente el ancho de banda", dijo Graham a Singh. LightMatter actualmente está colaborando con varias compañías tecnológicas en el diseño de nuevos centros de datos, y Graham señaló que estas instalaciones se están construyendo desde cero. La compañía ya ha establecido una asociación con Global Foundries, un fabricante de semiconductores contratados con operaciones en el estado de Nueva York, que atiende a clientes como dispositivos Micro Advanced.
Si bien Graham no reveló socios y clientes específicos más allá de esta colaboración, insinuó que LightMatter funciona con proveedores de silicio como Broadcom o Marvell para crear componentes personalizados para gigantes tecnológicos como Google, Amazon y Microsoft, que diseñan sus propios procesadores de centros de datos.
La escala y el futuro de los centros de datos de IA
Para ilustrar la magnitud del despliegue de IA, Graham señaló que al menos una docena de nuevos centros de datos de IA están planificados o en construcción, cada uno que requiere un gigavatio de poder. "Para el contexto, la ciudad de Nueva York usa alrededor de cinco gigavatios de energía en un día promedio. Entonces, estamos hablando del consumo de energía de múltiples ciudades de Nueva York", dijo. Él predice que para 2026, el procesamiento global de IA exigirá 40 gigavatios de poder, equivalente a ocho ciudades de Nueva York, específicamente para los centros de datos de IA.
LightMatter recientemente obtuvo una inversión de capital de riesgo de $ 400 millones, valorando a la compañía en $ 4.4 mil millones. Graham mencionó que la compañía tiene como objetivo comenzar la producción "en los próximos años".
Cuando se le preguntó sobre posibles interrupciones en los planes de LightMatter, Graham expresó su confianza en la necesidad continua de expandir la infraestructura informática de IA. Sin embargo, reconoció que un gran avance en los algoritmos de IA que requieren significativamente menos calcular o lograr la inteligencia general artificial (AGI) más rápidamente podría desafiar los supuestos actuales sobre la necesidad de un crecimiento exponencial de cálculo.
Artículo relacionado
Capítulo catorce de la novela visual impulsada por la IA Noche revelada
Bienvenido de nuevo al mundo de Nightfall, donde la narración de narración impulsada por la IA teje un tapiz de fantasía, actuación de voz y crossovers inesperados. En este último capítulo, seguimos las extravagantes desventuras de Mike Wazowski mientras se aventura a través de un reino misterioso en busca de aliados. Prepárese para ST
AI AI AUTOMACIÓN DEL MARKETING: Aumente los ingresos sin contratar más personal
Revolucionar su estrategia de marketing con IA en 2025 ¿Está ansioso por transformar su enfoque de marketing y ver sus ingresos sin contratar más personal? En 2025, la inteligencia artificial está remodelando cómo las empresas operan y se expanden. Es hora de profundizar en la automatización de marketing de IA y descubrir
Mastering Photoshop: cómo fusionar capas para edición eficiente
Si se está sumergiendo en el mundo de la edición de imágenes digitales con Adobe Photoshop, es esencial dominar el arte de la gestión de capas. Ya sea que sea un novato o un profesional experimentado, comprender cómo fusionar las capas puede transformar su flujo de trabajo de caótico a simplificado. A medida que sus proyectos crecen en complejidad
Comentario (20)
0/200
FrankClark
18 de abril de 2025 13:31:52 GMT
The idea that AI computing might consume power equivalent to multiple NYCs by 2026 is mind-blowing! It's exciting to see Nvidia pushing the boundaries, but also a bit scary thinking about the energy impact. Can't wait to see how this unfolds! 🌍💡
0
GaryGonzalez
19 de abril de 2025 13:09:03 GMT
2026年までにAIの計算が複数のニューヨーク市の電力を消費するかもしれないという考えは驚くべきものだ!Nvidiaが境界を押し広げるのを見るのはワクワクするけど、エネルギーへの影響を考えるとちょっと怖い。どうなるか楽しみだね!🌍💡
0
RaymondWalker
19 de abril de 2025 14:32:21 GMT
¡La idea de que el cómputo de IA podría consumir energía equivalente a múltiples ciudades de Nueva York para 2026 es alucinante! Es emocionante ver a Nvidia empujando los límites, pero también un poco aterrador pensar en el impacto energético. ¡No puedo esperar a ver cómo se desarrolla esto! 🌍💡
0
JamesGreen
19 de abril de 2025 02:08:23 GMT
Die Vorstellung, dass die KI-Rechenleistung bis 2026 Energie verbrauchen könnte, die mehreren New Yorks entspricht, ist umwerfend! Es ist aufregend zu sehen, wie Nvidia die Grenzen verschiebt, aber auch ein bisschen beängstigend, wenn man an den Energieeinfluss denkt. Kann es kaum erwarten zu sehen, wie sich das entwickelt! 🌍💡
0
LarryWilliams
18 de abril de 2025 14:24:22 GMT
L'idée que le calcul de l'IA pourrait consommer une puissance équivalente à plusieurs villes de New York d'ici 2026 est hallucinante ! C'est excitant de voir Nvidia repousser les limites, mais aussi un peu effrayant de penser à l'impact énergétique. J'ai hâte de voir comment cela va se dérouler ! 🌍💡
0
TerryYoung
20 de abril de 2025 00:05:08 GMT
This AI expansion sounds insane! By 2026, the power consumption could match multiple New York Cities? That's wild! I'm excited to see what kind of AI models they'll be training, but also kinda worried about the environmental impact. Can't wait to see how this pans out! 🤯
0






NVIDIA y socios amplían los centros de datos de IA en todo el mundo
Nvidia, junto con sus socios y clientes, ha estado expandiendo activamente el tamaño de las instalaciones informáticas en todo el mundo para satisfacer las altas demandas computacionales de capacitación de modelos de inteligencia artificial (IA) masiva como GPT-4. Esta expansión se volverá aún más crucial a medida que los modelos de IA adicionales se implementan en producción, según Thomas Graham, cofundador de la Lightmatter de inicio de la computación óptica. En una entrevista reciente en Nueva York con Mandeep Singh, analista senior de tecnología de Bloomberg Intelligence, Graham destacó la creciente necesidad de recursos computacionales.
"La demanda de más cómputo no es solo de escalar leyes; también se trata de desplegar estos modelos de IA ahora", explicó Graham. Singh preguntó sobre el futuro de los modelos de idiomas grandes (LLM) como GPT-4 y si continuarían creciendo en tamaño. En respuesta, Graham cambió el enfoque a la aplicación práctica de la IA, enfatizando la importancia de la inferencia o la fase de implementación, que requiere una potencia computacional sustancial.
"Si considera la capacitación como I + D, la inferencia es esencialmente una implementación. A medida que implementa, necesitará computadoras a gran escala para ejecutar sus modelos", dijo Graham durante la "Gen AI: ¿Puede cumplir la promesa de productividad?" Conferencia organizada por Bloomberg Intelligence.
La perspectiva de Graham se alinea con la del CEO de NVIDIA, Jensen Huang, quien ha enfatizado a Wall Street que avanzar en las formas de IA "agente" necesitará no solo una capacitación más sofisticada, sino también capacidades de inferencia significativamente mejoradas, lo que dará como resultado un aumento exponencial en los requisitos de cómputo.
El papel de Lightmatter en la infraestructura de IA
Fundada en 2018, LightMatter está a la vanguardia del desarrollo de la tecnología de chips que utiliza conexiones ópticas para vincular múltiples procesadores en un solo dado de semiconductores. Estas interconexiones ópticas pueden transferir datos de manera más eficiente que los cables de cobre tradicionales, utilizando menos energía. Esta tecnología puede optimizar las conexiones dentro y entre los bastidores de centros de datos, mejorando la eficiencia general y la economía del centro de datos, según Graham.
"Al reemplazar las trazas de cobre en los centros de datos, tanto en la placa de circuito impreso del servidor como en el cableado entre bastidores, con fibra óptica, podemos aumentar drásticamente el ancho de banda", dijo Graham a Singh. LightMatter actualmente está colaborando con varias compañías tecnológicas en el diseño de nuevos centros de datos, y Graham señaló que estas instalaciones se están construyendo desde cero. La compañía ya ha establecido una asociación con Global Foundries, un fabricante de semiconductores contratados con operaciones en el estado de Nueva York, que atiende a clientes como dispositivos Micro Advanced.
Si bien Graham no reveló socios y clientes específicos más allá de esta colaboración, insinuó que LightMatter funciona con proveedores de silicio como Broadcom o Marvell para crear componentes personalizados para gigantes tecnológicos como Google, Amazon y Microsoft, que diseñan sus propios procesadores de centros de datos.
La escala y el futuro de los centros de datos de IA
Para ilustrar la magnitud del despliegue de IA, Graham señaló que al menos una docena de nuevos centros de datos de IA están planificados o en construcción, cada uno que requiere un gigavatio de poder. "Para el contexto, la ciudad de Nueva York usa alrededor de cinco gigavatios de energía en un día promedio. Entonces, estamos hablando del consumo de energía de múltiples ciudades de Nueva York", dijo. Él predice que para 2026, el procesamiento global de IA exigirá 40 gigavatios de poder, equivalente a ocho ciudades de Nueva York, específicamente para los centros de datos de IA.
LightMatter recientemente obtuvo una inversión de capital de riesgo de $ 400 millones, valorando a la compañía en $ 4.4 mil millones. Graham mencionó que la compañía tiene como objetivo comenzar la producción "en los próximos años".
Cuando se le preguntó sobre posibles interrupciones en los planes de LightMatter, Graham expresó su confianza en la necesidad continua de expandir la infraestructura informática de IA. Sin embargo, reconoció que un gran avance en los algoritmos de IA que requieren significativamente menos calcular o lograr la inteligencia general artificial (AGI) más rápidamente podría desafiar los supuestos actuales sobre la necesidad de un crecimiento exponencial de cálculo.




The idea that AI computing might consume power equivalent to multiple NYCs by 2026 is mind-blowing! It's exciting to see Nvidia pushing the boundaries, but also a bit scary thinking about the energy impact. Can't wait to see how this unfolds! 🌍💡




2026年までにAIの計算が複数のニューヨーク市の電力を消費するかもしれないという考えは驚くべきものだ!Nvidiaが境界を押し広げるのを見るのはワクワクするけど、エネルギーへの影響を考えるとちょっと怖い。どうなるか楽しみだね!🌍💡




¡La idea de que el cómputo de IA podría consumir energía equivalente a múltiples ciudades de Nueva York para 2026 es alucinante! Es emocionante ver a Nvidia empujando los límites, pero también un poco aterrador pensar en el impacto energético. ¡No puedo esperar a ver cómo se desarrolla esto! 🌍💡




Die Vorstellung, dass die KI-Rechenleistung bis 2026 Energie verbrauchen könnte, die mehreren New Yorks entspricht, ist umwerfend! Es ist aufregend zu sehen, wie Nvidia die Grenzen verschiebt, aber auch ein bisschen beängstigend, wenn man an den Energieeinfluss denkt. Kann es kaum erwarten zu sehen, wie sich das entwickelt! 🌍💡




L'idée que le calcul de l'IA pourrait consommer une puissance équivalente à plusieurs villes de New York d'ici 2026 est hallucinante ! C'est excitant de voir Nvidia repousser les limites, mais aussi un peu effrayant de penser à l'impact énergétique. J'ai hâte de voir comment cela va se dérouler ! 🌍💡




This AI expansion sounds insane! By 2026, the power consumption could match multiple New York Cities? That's wild! I'm excited to see what kind of AI models they'll be training, but also kinda worried about the environmental impact. Can't wait to see how this pans out! 🤯












