De MIPS a exaflops en solo décadas: El poder computacional está explotando y transformará la IA
En la reciente conferencia Nvidia GTC, el gigante tecnológico presentó un logro revolucionario: el primer sistema de servidores en un solo rack capaz de alcanzar un exaflop. Eso es un mil millones de mil millones de operaciones de punto flotante (FLOPS) por segundo. Este hito se logra gracias al último sistema GB200 NVL72 de Nvidia, que incorpora las avanzadas unidades de procesamiento gráfico (GPU) Blackwell. Para ponerlo en perspectiva, este sistema cabe en un rack de computadora estándar de aproximadamente 6 pies de alto, un poco más de 3 pies de profundidad y menos de 2 pies de ancho.
Reduciendo un Exaflop: De Frontier a Blackwell
El anuncio me hizo pensar en cuánto hemos avanzado en solo unos pocos años. La primera computadora capaz de alcanzar un exaflop, "Frontier", fue instalada en el Laboratorio Nacional de Oak Ridge en 2022. Construida por HPE y alimentada por GPU y CPU de AMD, ocupaba un enorme espacio de 74 racks. En contraste, el nuevo sistema de Nvidia concentra 73 veces más rendimiento en un solo rack. ¡Eso es como triplicar el rendimiento cada año durante tres años consecutivos! Es un testimonio de los increíbles avances en densidad computacional, eficiencia energética y diseño arquitectónico.
También vale la pena señalar que, aunque ambos sistemas alcanzan el hito de la exaescala, están diseñados para diferentes propósitos. La calificación de exaflop de Nvidia se basa en matemáticas de menor precisión—operaciones de punto flotante de 4 y 8 bits—ideales para cargas de trabajo de IA como el entrenamiento y la ejecución de grandes modelos de lenguaje (LLM). Estos cálculos priorizan la velocidad sobre la precisión. Por otro lado, la calificación de exaflop de Frontier proviene de matemáticas de doble precisión de 64 bits, el estándar de oro para simulaciones científicas donde la exactitud es primordial.
Hemos Recorrido un Largo Camino (Muy Rápido)
El ritmo de este progreso es casi difícil de creer, especialmente cuando recuerdo los primeros días de mi carrera en informática. Mi primer trabajo fue como programador en el DEC KL 1090, parte de la serie PDP-10 de mainframes de tiempo compartido de DEC. Esa máquina funcionaba a un modesto 1.8 millones de instrucciones por segundo (MIPS). Se conectaba a pantallas de tubo de rayos catódicos (CRT) mediante cables fijos, sin gráficos de los que hablar, solo texto en pantalla. Y, por supuesto, no había Internet. Los usuarios remotos debían conectarse a través de líneas telefónicas con módems que alcanzaban un máximo de 1,200 bits por segundo.

500 Mil Millones de Veces Más Poder Computacional
Aunque comparar MIPS con FLOPS no es una comparación directa, nos da una idea del increíble salto en el poder computacional. MIPS mide la velocidad de procesamiento de enteros, ideal para informática de propósito general y aplicaciones empresariales. FLOPS, por otro lado, mide el rendimiento de punto flotante, crucial para cargas de trabajo científicas y el esfuerzo pesado detrás de la IA moderna, como las matemáticas de matrices y el álgebra lineal necesarios para entrenar y ejecutar modelos de aprendizaje automático (ML).
Usando esto como guía aproximada, el nuevo sistema de Nvidia es aproximadamente 500 mil millones de veces más poderoso que la antigua máquina DEC. Es un ejemplo asombroso del crecimiento exponencial en el poder computacional durante una sola carrera. Hace que uno se pregunte: Si hemos logrado tanto en 40 años, ¿qué podrían traer los próximos cinco años?
Nvidia nos ha dado algunas pistas. En GTC, compartieron una hoja de ruta que predice que su sistema de rack completo de próxima generación, basado en la arquitectura Ultra "Vera Rubin", ofrecerá 14 veces el rendimiento del rack Blackwell Ultra actual. Estamos hablando de entre 14 y 15 exaflops en trabajos optimizados para IA en el próximo año o dos.
No se trata solo de potencia bruta. Comprimir este rendimiento en un solo rack significa menos espacio físico, menos materiales y potencialmente un menor uso de energía por operación. Aunque no olvidemos que las demandas absolutas de energía de estos sistemas siguen siendo enormes.
¿Realmente Necesita la IA Todo Ese Poder Computacional?
Aunque estos avances en rendimiento son impresionantes, la industria de la IA ahora está lidiando con una gran pregunta: ¿Cuánto poder computacional necesitamos realmente y a qué costo? La carrera por construir nuevos y masivos centros de datos de IA está impulsada por las demandas de la computación a exaescala y modelos de IA cada vez más capaces.
El proyecto más ambicioso es el Proyecto Stargate de $500 mil millones, que planea 20 centros de datos en los EE. UU., cada uno de medio millón de pies cuadrados. Hay una ola de otros proyectos de hiperescala en marcha o en planificación en todo el mundo, mientras empresas y países se apresuran a construir la infraestructura para futuras cargas de trabajo de IA.
Algunos analistas están preocupados de que podríamos estar construyendo en exceso. Las preocupaciones crecieron tras el lanzamiento de R1, un modelo de razonamiento de DeepSeek de China que usa significativamente menos cómputo que sus pares. La reciente cancelación de arrendamientos de Microsoft con múltiples proveedores de centros de datos ha alimentado la especulación de que podrían estar reconsiderando sus necesidades de infraestructura de IA.
Sin embargo, The Register sugirió que este retroceso podría estar más relacionado con que los centros de datos planeados no pueden manejar las necesidades de energía y enfriamiento de los sistemas de IA de próxima generación. Los modelos de IA ya están empujando los límites de la infraestructura actual. MIT Technology Review informó que muchos centros de datos en China están teniendo dificultades y fallando porque fueron construidos según especificaciones obsoletas.
La Inferencia de IA Demanda Más FLOPS
Los modelos de razonamiento hacen la mayor parte de su trabajo pesado en tiempo de ejecución a través de un proceso llamado inferencia. Estos modelos alimentan algunas de las aplicaciones más avanzadas y que consumen más recursos, como asistentes de investigación profunda y la emergente ola de sistemas de IA agentivos.
Aunque DeepSeek-R1 inicialmente llevó a la industria a pensar que la IA futura podría necesitar menos poder computacional, el CEO de Nvidia, Jensen Huang, respondió con fuerza. En una entrevista con CNBC, argumentó lo contrario: "Fue exactamente la conclusión opuesta a la que todos tenían." Añadió que la IA de razonamiento consume 100 veces más cómputo que la IA no razonadora.
A medida que la IA evoluciona de modelos de razonamiento a agentes autónomos y más allá, la demanda de poder computacional probablemente volverá a aumentar. Los próximos avances podrían llegar en áreas como la coordinación de agentes de IA, simulaciones de fusión o gemelos digitales a gran escala, todo ello posible gracias al tipo de salto computacional que acabamos de ver.
Como si fuera una señal, OpenAI anunció $40 mil millones en nueva financiación, la ronda de financiación tecnológica privada más grande registrada. En una publicación de blog, dijeron que la financiación "nos permite avanzar aún más en las fronteras de la investigación de IA, escalar nuestra infraestructura computacional y ofrecer herramientas cada vez más poderosas para los 500 millones de personas que usan ChatGPT cada semana."
¿Por qué fluye tanto capital hacia la IA? Las razones van desde la competitividad hasta la seguridad nacional, pero un factor destaca: Según McKinsey, la IA podría aumentar las ganancias corporativas en $4.4 billones al año.
¿Qué Sigue? Es Difícil de Predecir
En su núcleo, los sistemas de información tratan de simplificar la complejidad, ya sea un sistema de enrutamiento de vehículos de emergencia que escribí en Fortran, una herramienta de informes de logros estudiantiles construida en COBOL, o sistemas de IA modernos que aceleran el descubrimiento de medicamentos. El objetivo siempre ha sido el mismo: Dar sentido al mundo.
Ahora, con una IA poderosa en el horizonte, estamos cruzando un umbral. Por primera vez, podríamos tener el poder computacional y la inteligencia para abordar problemas que antes estaban fuera del alcance humano.
El columnista del New York Times, Kevin Roose, capturó bien este momento: "Cada semana, me encuentro con ingenieros y empresarios trabajando en IA que me dicen que el cambio—un gran cambio, un cambio que sacude el mundo, el tipo de transformación que nunca hemos visto antes—está a la vuelta de la esquina." Y eso sin contar los avances que llegan cada semana.
Solo en los últimos días, hemos visto a GPT-4o de OpenAI generar imágenes casi perfectas a partir de texto, Google lanzar lo que podría ser el modelo de razonamiento más avanzado hasta ahora en Gemini 2.5 Pro, y Runway presentar un modelo de video con consistencia de personaje y escena de toma a toma, algo que VentureBeat señala que ha eludido a la mayoría de los generadores de video de IA hasta ahora.
Lo que viene después es realmente difícil de predecir. No sabemos si la IA poderosa será un avance o un colapso, si ayudará a resolver la energía de fusión o desatará nuevos riesgos biológicos. Pero con cada vez más FLOPS en línea en los próximos cinco años, una cosa parece segura: La innovación llegará rápido y con fuerza. A medida que los FLOPS escalan, también deben hacerlo nuestras conversaciones sobre responsabilidad, regulación y contención.
Gary Grossman es EVP de la práctica de tecnología en Edelman y líder global del Centro de Excelencia en IA de Edelman.
Artículo relacionado
Nuevo Estudio Revela Cuántos Datos Memorizan Realmente los LLMs
¿Cuánto Memorizan Realmente los Modelos de IA? Nueva Investigación Revela Ideas SorprendentesTodos sabemos que los modelos de lenguaje grandes (LLMs) como ChatGPT, Claude y Gemini se entrenan con enor
Nvidia proporciona el Blueprint de Omniverse para gemelos digitales de fábricas de IA
NVIDIA presenta una gran expansión del Blueprint de Omniverse para gemelos digitales de fábricas de IAEn un importante anuncio en Computex 2025 en Taipéi, NVIDIA ha ampliado significativamente el alca
El supernodo de Huawei 384 altera la supremacía de Nvidia en el mercado de IA
La Innovación de Huawei en la Arquitectura de Procesamiento de IA: El Supernode 384En el constante evolucionar del mundo de la inteligencia artificial, Huawei ha causado impacto co
comentario (2)
0/200
MarkGonzalez
28 de julio de 2025 03:20:21 GMT+02:00
Mind blown! An exaflop in a single rack? Nvidia's pushing AI into hyperspace. Can't wait to see what crazy applications come next. 🚀
0
MatthewHill
22 de julio de 2025 03:25:03 GMT+02:00
Mind blown by this exaflop server rack! Nvidia's pushing AI compute to insane levels. Can't wait to see what crazy applications come out of this power. 🚀
0
En la reciente conferencia Nvidia GTC, el gigante tecnológico presentó un logro revolucionario: el primer sistema de servidores en un solo rack capaz de alcanzar un exaflop. Eso es un mil millones de mil millones de operaciones de punto flotante (FLOPS) por segundo. Este hito se logra gracias al último sistema GB200 NVL72 de Nvidia, que incorpora las avanzadas unidades de procesamiento gráfico (GPU) Blackwell. Para ponerlo en perspectiva, este sistema cabe en un rack de computadora estándar de aproximadamente 6 pies de alto, un poco más de 3 pies de profundidad y menos de 2 pies de ancho.
Reduciendo un Exaflop: De Frontier a Blackwell
El anuncio me hizo pensar en cuánto hemos avanzado en solo unos pocos años. La primera computadora capaz de alcanzar un exaflop, "Frontier", fue instalada en el Laboratorio Nacional de Oak Ridge en 2022. Construida por HPE y alimentada por GPU y CPU de AMD, ocupaba un enorme espacio de 74 racks. En contraste, el nuevo sistema de Nvidia concentra 73 veces más rendimiento en un solo rack. ¡Eso es como triplicar el rendimiento cada año durante tres años consecutivos! Es un testimonio de los increíbles avances en densidad computacional, eficiencia energética y diseño arquitectónico.
También vale la pena señalar que, aunque ambos sistemas alcanzan el hito de la exaescala, están diseñados para diferentes propósitos. La calificación de exaflop de Nvidia se basa en matemáticas de menor precisión—operaciones de punto flotante de 4 y 8 bits—ideales para cargas de trabajo de IA como el entrenamiento y la ejecución de grandes modelos de lenguaje (LLM). Estos cálculos priorizan la velocidad sobre la precisión. Por otro lado, la calificación de exaflop de Frontier proviene de matemáticas de doble precisión de 64 bits, el estándar de oro para simulaciones científicas donde la exactitud es primordial.
Hemos Recorrido un Largo Camino (Muy Rápido)
El ritmo de este progreso es casi difícil de creer, especialmente cuando recuerdo los primeros días de mi carrera en informática. Mi primer trabajo fue como programador en el DEC KL 1090, parte de la serie PDP-10 de mainframes de tiempo compartido de DEC. Esa máquina funcionaba a un modesto 1.8 millones de instrucciones por segundo (MIPS). Se conectaba a pantallas de tubo de rayos catódicos (CRT) mediante cables fijos, sin gráficos de los que hablar, solo texto en pantalla. Y, por supuesto, no había Internet. Los usuarios remotos debían conectarse a través de líneas telefónicas con módems que alcanzaban un máximo de 1,200 bits por segundo.
500 Mil Millones de Veces Más Poder Computacional
Aunque comparar MIPS con FLOPS no es una comparación directa, nos da una idea del increíble salto en el poder computacional. MIPS mide la velocidad de procesamiento de enteros, ideal para informática de propósito general y aplicaciones empresariales. FLOPS, por otro lado, mide el rendimiento de punto flotante, crucial para cargas de trabajo científicas y el esfuerzo pesado detrás de la IA moderna, como las matemáticas de matrices y el álgebra lineal necesarios para entrenar y ejecutar modelos de aprendizaje automático (ML).
Usando esto como guía aproximada, el nuevo sistema de Nvidia es aproximadamente 500 mil millones de veces más poderoso que la antigua máquina DEC. Es un ejemplo asombroso del crecimiento exponencial en el poder computacional durante una sola carrera. Hace que uno se pregunte: Si hemos logrado tanto en 40 años, ¿qué podrían traer los próximos cinco años?
Nvidia nos ha dado algunas pistas. En GTC, compartieron una hoja de ruta que predice que su sistema de rack completo de próxima generación, basado en la arquitectura Ultra "Vera Rubin", ofrecerá 14 veces el rendimiento del rack Blackwell Ultra actual. Estamos hablando de entre 14 y 15 exaflops en trabajos optimizados para IA en el próximo año o dos.
No se trata solo de potencia bruta. Comprimir este rendimiento en un solo rack significa menos espacio físico, menos materiales y potencialmente un menor uso de energía por operación. Aunque no olvidemos que las demandas absolutas de energía de estos sistemas siguen siendo enormes.
¿Realmente Necesita la IA Todo Ese Poder Computacional?
Aunque estos avances en rendimiento son impresionantes, la industria de la IA ahora está lidiando con una gran pregunta: ¿Cuánto poder computacional necesitamos realmente y a qué costo? La carrera por construir nuevos y masivos centros de datos de IA está impulsada por las demandas de la computación a exaescala y modelos de IA cada vez más capaces.
El proyecto más ambicioso es el Proyecto Stargate de $500 mil millones, que planea 20 centros de datos en los EE. UU., cada uno de medio millón de pies cuadrados. Hay una ola de otros proyectos de hiperescala en marcha o en planificación en todo el mundo, mientras empresas y países se apresuran a construir la infraestructura para futuras cargas de trabajo de IA.
Algunos analistas están preocupados de que podríamos estar construyendo en exceso. Las preocupaciones crecieron tras el lanzamiento de R1, un modelo de razonamiento de DeepSeek de China que usa significativamente menos cómputo que sus pares. La reciente cancelación de arrendamientos de Microsoft con múltiples proveedores de centros de datos ha alimentado la especulación de que podrían estar reconsiderando sus necesidades de infraestructura de IA.
Sin embargo, The Register sugirió que este retroceso podría estar más relacionado con que los centros de datos planeados no pueden manejar las necesidades de energía y enfriamiento de los sistemas de IA de próxima generación. Los modelos de IA ya están empujando los límites de la infraestructura actual. MIT Technology Review informó que muchos centros de datos en China están teniendo dificultades y fallando porque fueron construidos según especificaciones obsoletas.
La Inferencia de IA Demanda Más FLOPS
Los modelos de razonamiento hacen la mayor parte de su trabajo pesado en tiempo de ejecución a través de un proceso llamado inferencia. Estos modelos alimentan algunas de las aplicaciones más avanzadas y que consumen más recursos, como asistentes de investigación profunda y la emergente ola de sistemas de IA agentivos.
Aunque DeepSeek-R1 inicialmente llevó a la industria a pensar que la IA futura podría necesitar menos poder computacional, el CEO de Nvidia, Jensen Huang, respondió con fuerza. En una entrevista con CNBC, argumentó lo contrario: "Fue exactamente la conclusión opuesta a la que todos tenían." Añadió que la IA de razonamiento consume 100 veces más cómputo que la IA no razonadora.
A medida que la IA evoluciona de modelos de razonamiento a agentes autónomos y más allá, la demanda de poder computacional probablemente volverá a aumentar. Los próximos avances podrían llegar en áreas como la coordinación de agentes de IA, simulaciones de fusión o gemelos digitales a gran escala, todo ello posible gracias al tipo de salto computacional que acabamos de ver.
Como si fuera una señal, OpenAI anunció $40 mil millones en nueva financiación, la ronda de financiación tecnológica privada más grande registrada. En una publicación de blog, dijeron que la financiación "nos permite avanzar aún más en las fronteras de la investigación de IA, escalar nuestra infraestructura computacional y ofrecer herramientas cada vez más poderosas para los 500 millones de personas que usan ChatGPT cada semana."
¿Por qué fluye tanto capital hacia la IA? Las razones van desde la competitividad hasta la seguridad nacional, pero un factor destaca: Según McKinsey, la IA podría aumentar las ganancias corporativas en $4.4 billones al año.
¿Qué Sigue? Es Difícil de Predecir
En su núcleo, los sistemas de información tratan de simplificar la complejidad, ya sea un sistema de enrutamiento de vehículos de emergencia que escribí en Fortran, una herramienta de informes de logros estudiantiles construida en COBOL, o sistemas de IA modernos que aceleran el descubrimiento de medicamentos. El objetivo siempre ha sido el mismo: Dar sentido al mundo.
Ahora, con una IA poderosa en el horizonte, estamos cruzando un umbral. Por primera vez, podríamos tener el poder computacional y la inteligencia para abordar problemas que antes estaban fuera del alcance humano.
El columnista del New York Times, Kevin Roose, capturó bien este momento: "Cada semana, me encuentro con ingenieros y empresarios trabajando en IA que me dicen que el cambio—un gran cambio, un cambio que sacude el mundo, el tipo de transformación que nunca hemos visto antes—está a la vuelta de la esquina." Y eso sin contar los avances que llegan cada semana.
Solo en los últimos días, hemos visto a GPT-4o de OpenAI generar imágenes casi perfectas a partir de texto, Google lanzar lo que podría ser el modelo de razonamiento más avanzado hasta ahora en Gemini 2.5 Pro, y Runway presentar un modelo de video con consistencia de personaje y escena de toma a toma, algo que VentureBeat señala que ha eludido a la mayoría de los generadores de video de IA hasta ahora.
Lo que viene después es realmente difícil de predecir. No sabemos si la IA poderosa será un avance o un colapso, si ayudará a resolver la energía de fusión o desatará nuevos riesgos biológicos. Pero con cada vez más FLOPS en línea en los próximos cinco años, una cosa parece segura: La innovación llegará rápido y con fuerza. A medida que los FLOPS escalan, también deben hacerlo nuestras conversaciones sobre responsabilidad, regulación y contención.
Gary Grossman es EVP de la práctica de tecnología en Edelman y líder global del Centro de Excelencia en IA de Edelman.



Mind blown! An exaflop in a single rack? Nvidia's pushing AI into hyperspace. Can't wait to see what crazy applications come next. 🚀




Mind blown by this exaflop server rack! Nvidia's pushing AI compute to insane levels. Can't wait to see what crazy applications come out of this power. 🚀












