De MIPS a exaflops en solo décadas: El poder computacional está explotando y transformará la IA
En la reciente conferencia Nvidia GTC, el gigante tecnológico presentó un logro revolucionario: el primer sistema de servidores en un solo rack capaz de alcanzar un exaflop. Eso es un mil millones de mil millones de operaciones de punto flotante (FLOPS) por segundo. Este hito se logra gracias al último sistema GB200 NVL72 de Nvidia, que incorpora las avanzadas unidades de procesamiento gráfico (GPU) Blackwell. Para ponerlo en perspectiva, este sistema cabe en un rack de computadora estándar de aproximadamente 6 pies de alto, un poco más de 3 pies de profundidad y menos de 2 pies de ancho.
Reduciendo un Exaflop: De Frontier a Blackwell
El anuncio me hizo pensar en cuánto hemos avanzado en solo unos pocos años. La primera computadora capaz de alcanzar un exaflop, "Frontier", fue instalada en el Laboratorio Nacional de Oak Ridge en 2022. Construida por HPE y alimentada por GPU y CPU de AMD, ocupaba un enorme espacio de 74 racks. En contraste, el nuevo sistema de Nvidia concentra 73 veces más rendimiento en un solo rack. ¡Eso es como triplicar el rendimiento cada año durante tres años consecutivos! Es un testimonio de los increíbles avances en densidad computacional, eficiencia energética y diseño arquitectónico.
También vale la pena señalar que, aunque ambos sistemas alcanzan el hito de la exaescala, están diseñados para diferentes propósitos. La calificación de exaflop de Nvidia se basa en matemáticas de menor precisión—operaciones de punto flotante de 4 y 8 bits—ideales para cargas de trabajo de IA como el entrenamiento y la ejecución de grandes modelos de lenguaje (LLM). Estos cálculos priorizan la velocidad sobre la precisión. Por otro lado, la calificación de exaflop de Frontier proviene de matemáticas de doble precisión de 64 bits, el estándar de oro para simulaciones científicas donde la exactitud es primordial.
Hemos Recorrido un Largo Camino (Muy Rápido)
El ritmo de este progreso es casi difícil de creer, especialmente cuando recuerdo los primeros días de mi carrera en informática. Mi primer trabajo fue como programador en el DEC KL 1090, parte de la serie PDP-10 de mainframes de tiempo compartido de DEC. Esa máquina funcionaba a un modesto 1.8 millones de instrucciones por segundo (MIPS). Se conectaba a pantallas de tubo de rayos catódicos (CRT) mediante cables fijos, sin gráficos de los que hablar, solo texto en pantalla. Y, por supuesto, no había Internet. Los usuarios remotos debían conectarse a través de líneas telefónicas con módems que alcanzaban un máximo de 1,200 bits por segundo.

500 Mil Millones de Veces Más Poder Computacional
Aunque comparar MIPS con FLOPS no es una comparación directa, nos da una idea del increíble salto en el poder computacional. MIPS mide la velocidad de procesamiento de enteros, ideal para informática de propósito general y aplicaciones empresariales. FLOPS, por otro lado, mide el rendimiento de punto flotante, crucial para cargas de trabajo científicas y el esfuerzo pesado detrás de la IA moderna, como las matemáticas de matrices y el álgebra lineal necesarios para entrenar y ejecutar modelos de aprendizaje automático (ML).
Usando esto como guía aproximada, el nuevo sistema de Nvidia es aproximadamente 500 mil millones de veces más poderoso que la antigua máquina DEC. Es un ejemplo asombroso del crecimiento exponencial en el poder computacional durante una sola carrera. Hace que uno se pregunte: Si hemos logrado tanto en 40 años, ¿qué podrían traer los próximos cinco años?
Nvidia nos ha dado algunas pistas. En GTC, compartieron una hoja de ruta que predice que su sistema de rack completo de próxima generación, basado en la arquitectura Ultra "Vera Rubin", ofrecerá 14 veces el rendimiento del rack Blackwell Ultra actual. Estamos hablando de entre 14 y 15 exaflops en trabajos optimizados para IA en el próximo año o dos.
No se trata solo de potencia bruta. Comprimir este rendimiento en un solo rack significa menos espacio físico, menos materiales y potencialmente un menor uso de energía por operación. Aunque no olvidemos que las demandas absolutas de energía de estos sistemas siguen siendo enormes.
¿Realmente Necesita la IA Todo Ese Poder Computacional?
Aunque estos avances en rendimiento son impresionantes, la industria de la IA ahora está lidiando con una gran pregunta: ¿Cuánto poder computacional necesitamos realmente y a qué costo? La carrera por construir nuevos y masivos centros de datos de IA está impulsada por las demandas de la computación a exaescala y modelos de IA cada vez más capaces.
El proyecto más ambicioso es el Proyecto Stargate de $500 mil millones, que planea 20 centros de datos en los EE. UU., cada uno de medio millón de pies cuadrados. Hay una ola de otros proyectos de hiperescala en marcha o en planificación en todo el mundo, mientras empresas y países se apresuran a construir la infraestructura para futuras cargas de trabajo de IA.
Algunos analistas están preocupados de que podríamos estar construyendo en exceso. Las preocupaciones crecieron tras el lanzamiento de R1, un modelo de razonamiento de DeepSeek de China que usa significativamente menos cómputo que sus pares. La reciente cancelación de arrendamientos de Microsoft con múltiples proveedores de centros de datos ha alimentado la especulación de que podrían estar reconsiderando sus necesidades de infraestructura de IA.
Sin embargo, The Register sugirió que este retroceso podría estar más relacionado con que los centros de datos planeados no pueden manejar las necesidades de energía y enfriamiento de los sistemas de IA de próxima generación. Los modelos de IA ya están empujando los límites de la infraestructura actual. MIT Technology Review informó que muchos centros de datos en China están teniendo dificultades y fallando porque fueron construidos según especificaciones obsoletas.
La Inferencia de IA Demanda Más FLOPS
Los modelos de razonamiento hacen la mayor parte de su trabajo pesado en tiempo de ejecución a través de un proceso llamado inferencia. Estos modelos alimentan algunas de las aplicaciones más avanzadas y que consumen más recursos, como asistentes de investigación profunda y la emergente ola de sistemas de IA agentivos.
Aunque DeepSeek-R1 inicialmente llevó a la industria a pensar que la IA futura podría necesitar menos poder computacional, el CEO de Nvidia, Jensen Huang, respondió con fuerza. En una entrevista con CNBC, argumentó lo contrario: "Fue exactamente la conclusión opuesta a la que todos tenían." Añadió que la IA de razonamiento consume 100 veces más cómputo que la IA no razonadora.
A medida que la IA evoluciona de modelos de razonamiento a agentes autónomos y más allá, la demanda de poder computacional probablemente volverá a aumentar. Los próximos avances podrían llegar en áreas como la coordinación de agentes de IA, simulaciones de fusión o gemelos digitales a gran escala, todo ello posible gracias al tipo de salto computacional que acabamos de ver.
Como si fuera una señal, OpenAI anunció $40 mil millones en nueva financiación, la ronda de financiación tecnológica privada más grande registrada. En una publicación de blog, dijeron que la financiación "nos permite avanzar aún más en las fronteras de la investigación de IA, escalar nuestra infraestructura computacional y ofrecer herramientas cada vez más poderosas para los 500 millones de personas que usan ChatGPT cada semana."
¿Por qué fluye tanto capital hacia la IA? Las razones van desde la competitividad hasta la seguridad nacional, pero un factor destaca: Según McKinsey, la IA podría aumentar las ganancias corporativas en $4.4 billones al año.
¿Qué Sigue? Es Difícil de Predecir
En su núcleo, los sistemas de información tratan de simplificar la complejidad, ya sea un sistema de enrutamiento de vehículos de emergencia que escribí en Fortran, una herramienta de informes de logros estudiantiles construida en COBOL, o sistemas de IA modernos que aceleran el descubrimiento de medicamentos. El objetivo siempre ha sido el mismo: Dar sentido al mundo.
Ahora, con una IA poderosa en el horizonte, estamos cruzando un umbral. Por primera vez, podríamos tener el poder computacional y la inteligencia para abordar problemas que antes estaban fuera del alcance humano.
El columnista del New York Times, Kevin Roose, capturó bien este momento: "Cada semana, me encuentro con ingenieros y empresarios trabajando en IA que me dicen que el cambio—un gran cambio, un cambio que sacude el mundo, el tipo de transformación que nunca hemos visto antes—está a la vuelta de la esquina." Y eso sin contar los avances que llegan cada semana.
Solo en los últimos días, hemos visto a GPT-4o de OpenAI generar imágenes casi perfectas a partir de texto, Google lanzar lo que podría ser el modelo de razonamiento más avanzado hasta ahora en Gemini 2.5 Pro, y Runway presentar un modelo de video con consistencia de personaje y escena de toma a toma, algo que VentureBeat señala que ha eludido a la mayoría de los generadores de video de IA hasta ahora.
Lo que viene después es realmente difícil de predecir. No sabemos si la IA poderosa será un avance o un colapso, si ayudará a resolver la energía de fusión o desatará nuevos riesgos biológicos. Pero con cada vez más FLOPS en línea en los próximos cinco años, una cosa parece segura: La innovación llegará rápido y con fuerza. A medida que los FLOPS escalan, también deben hacerlo nuestras conversaciones sobre responsabilidad, regulación y contención.
Gary Grossman es EVP de la práctica de tecnología en Edelman y líder global del Centro de Excelencia en IA de Edelman.
Artículo relacionado
華為スーパーノード384、NVIDIAのAI市場支配を乱す
HuaweiのAI処理アーキテクチャにおける革新:スーパーノード384人工知能の進化する世界の中で、Huaweiはスーパーノード384アーキテクチャを発表し、プロセッサ設計において大きな飛躍を遂げました。この革新は、米中技術摩擦が高まる中での発表であり、困難に直面してもHuaweiの粘り強さと創造力を示しています。この発表は、先週深センで開催されたKunpe
クラウドを活用したNvidiaのヒューマノイドロボティクス進展
NVIDIAは人型ロボティクスの領域にフルスロットルで突入しており、その動きにはブレがありません。台湾でのComputex 2025展示会では、ロボティクス開発の地平線を再定義する一連の革新が発表されました。その中でも注目すべきは、NVIDIA Isaac GR00T N1.5です。これは、人型ロボットの推論やスキルに関するオープンで完全にカスタマイズ可能な
WindowsのNvidia AIアシスタントにSpotify、Twitchプラグイン追加
Nvidiaは、Windows上でG-Assist AIアシスタントを新たな高みへと引き上げています。ゲームやシステム設定の調整だけでなく、昨月PCゲーム体験を向上させるチャットボットとしてリリースされたG-Assistが、今度はプラグインサポートを導入して進化しています。このアップデートにより、AIはその範囲を拡大し、Spotifyの操作やお気に入りのスト
comentario (0)
0/200
En la reciente conferencia Nvidia GTC, el gigante tecnológico presentó un logro revolucionario: el primer sistema de servidores en un solo rack capaz de alcanzar un exaflop. Eso es un mil millones de mil millones de operaciones de punto flotante (FLOPS) por segundo. Este hito se logra gracias al último sistema GB200 NVL72 de Nvidia, que incorpora las avanzadas unidades de procesamiento gráfico (GPU) Blackwell. Para ponerlo en perspectiva, este sistema cabe en un rack de computadora estándar de aproximadamente 6 pies de alto, un poco más de 3 pies de profundidad y menos de 2 pies de ancho.
Reduciendo un Exaflop: De Frontier a Blackwell
El anuncio me hizo pensar en cuánto hemos avanzado en solo unos pocos años. La primera computadora capaz de alcanzar un exaflop, "Frontier", fue instalada en el Laboratorio Nacional de Oak Ridge en 2022. Construida por HPE y alimentada por GPU y CPU de AMD, ocupaba un enorme espacio de 74 racks. En contraste, el nuevo sistema de Nvidia concentra 73 veces más rendimiento en un solo rack. ¡Eso es como triplicar el rendimiento cada año durante tres años consecutivos! Es un testimonio de los increíbles avances en densidad computacional, eficiencia energética y diseño arquitectónico.
También vale la pena señalar que, aunque ambos sistemas alcanzan el hito de la exaescala, están diseñados para diferentes propósitos. La calificación de exaflop de Nvidia se basa en matemáticas de menor precisión—operaciones de punto flotante de 4 y 8 bits—ideales para cargas de trabajo de IA como el entrenamiento y la ejecución de grandes modelos de lenguaje (LLM). Estos cálculos priorizan la velocidad sobre la precisión. Por otro lado, la calificación de exaflop de Frontier proviene de matemáticas de doble precisión de 64 bits, el estándar de oro para simulaciones científicas donde la exactitud es primordial.
Hemos Recorrido un Largo Camino (Muy Rápido)
El ritmo de este progreso es casi difícil de creer, especialmente cuando recuerdo los primeros días de mi carrera en informática. Mi primer trabajo fue como programador en el DEC KL 1090, parte de la serie PDP-10 de mainframes de tiempo compartido de DEC. Esa máquina funcionaba a un modesto 1.8 millones de instrucciones por segundo (MIPS). Se conectaba a pantallas de tubo de rayos catódicos (CRT) mediante cables fijos, sin gráficos de los que hablar, solo texto en pantalla. Y, por supuesto, no había Internet. Los usuarios remotos debían conectarse a través de líneas telefónicas con módems que alcanzaban un máximo de 1,200 bits por segundo.
500 Mil Millones de Veces Más Poder Computacional
Aunque comparar MIPS con FLOPS no es una comparación directa, nos da una idea del increíble salto en el poder computacional. MIPS mide la velocidad de procesamiento de enteros, ideal para informática de propósito general y aplicaciones empresariales. FLOPS, por otro lado, mide el rendimiento de punto flotante, crucial para cargas de trabajo científicas y el esfuerzo pesado detrás de la IA moderna, como las matemáticas de matrices y el álgebra lineal necesarios para entrenar y ejecutar modelos de aprendizaje automático (ML).
Usando esto como guía aproximada, el nuevo sistema de Nvidia es aproximadamente 500 mil millones de veces más poderoso que la antigua máquina DEC. Es un ejemplo asombroso del crecimiento exponencial en el poder computacional durante una sola carrera. Hace que uno se pregunte: Si hemos logrado tanto en 40 años, ¿qué podrían traer los próximos cinco años?
Nvidia nos ha dado algunas pistas. En GTC, compartieron una hoja de ruta que predice que su sistema de rack completo de próxima generación, basado en la arquitectura Ultra "Vera Rubin", ofrecerá 14 veces el rendimiento del rack Blackwell Ultra actual. Estamos hablando de entre 14 y 15 exaflops en trabajos optimizados para IA en el próximo año o dos.
No se trata solo de potencia bruta. Comprimir este rendimiento en un solo rack significa menos espacio físico, menos materiales y potencialmente un menor uso de energía por operación. Aunque no olvidemos que las demandas absolutas de energía de estos sistemas siguen siendo enormes.
¿Realmente Necesita la IA Todo Ese Poder Computacional?
Aunque estos avances en rendimiento son impresionantes, la industria de la IA ahora está lidiando con una gran pregunta: ¿Cuánto poder computacional necesitamos realmente y a qué costo? La carrera por construir nuevos y masivos centros de datos de IA está impulsada por las demandas de la computación a exaescala y modelos de IA cada vez más capaces.
El proyecto más ambicioso es el Proyecto Stargate de $500 mil millones, que planea 20 centros de datos en los EE. UU., cada uno de medio millón de pies cuadrados. Hay una ola de otros proyectos de hiperescala en marcha o en planificación en todo el mundo, mientras empresas y países se apresuran a construir la infraestructura para futuras cargas de trabajo de IA.
Algunos analistas están preocupados de que podríamos estar construyendo en exceso. Las preocupaciones crecieron tras el lanzamiento de R1, un modelo de razonamiento de DeepSeek de China que usa significativamente menos cómputo que sus pares. La reciente cancelación de arrendamientos de Microsoft con múltiples proveedores de centros de datos ha alimentado la especulación de que podrían estar reconsiderando sus necesidades de infraestructura de IA.
Sin embargo, The Register sugirió que este retroceso podría estar más relacionado con que los centros de datos planeados no pueden manejar las necesidades de energía y enfriamiento de los sistemas de IA de próxima generación. Los modelos de IA ya están empujando los límites de la infraestructura actual. MIT Technology Review informó que muchos centros de datos en China están teniendo dificultades y fallando porque fueron construidos según especificaciones obsoletas.
La Inferencia de IA Demanda Más FLOPS
Los modelos de razonamiento hacen la mayor parte de su trabajo pesado en tiempo de ejecución a través de un proceso llamado inferencia. Estos modelos alimentan algunas de las aplicaciones más avanzadas y que consumen más recursos, como asistentes de investigación profunda y la emergente ola de sistemas de IA agentivos.
Aunque DeepSeek-R1 inicialmente llevó a la industria a pensar que la IA futura podría necesitar menos poder computacional, el CEO de Nvidia, Jensen Huang, respondió con fuerza. En una entrevista con CNBC, argumentó lo contrario: "Fue exactamente la conclusión opuesta a la que todos tenían." Añadió que la IA de razonamiento consume 100 veces más cómputo que la IA no razonadora.
A medida que la IA evoluciona de modelos de razonamiento a agentes autónomos y más allá, la demanda de poder computacional probablemente volverá a aumentar. Los próximos avances podrían llegar en áreas como la coordinación de agentes de IA, simulaciones de fusión o gemelos digitales a gran escala, todo ello posible gracias al tipo de salto computacional que acabamos de ver.
Como si fuera una señal, OpenAI anunció $40 mil millones en nueva financiación, la ronda de financiación tecnológica privada más grande registrada. En una publicación de blog, dijeron que la financiación "nos permite avanzar aún más en las fronteras de la investigación de IA, escalar nuestra infraestructura computacional y ofrecer herramientas cada vez más poderosas para los 500 millones de personas que usan ChatGPT cada semana."
¿Por qué fluye tanto capital hacia la IA? Las razones van desde la competitividad hasta la seguridad nacional, pero un factor destaca: Según McKinsey, la IA podría aumentar las ganancias corporativas en $4.4 billones al año.
¿Qué Sigue? Es Difícil de Predecir
En su núcleo, los sistemas de información tratan de simplificar la complejidad, ya sea un sistema de enrutamiento de vehículos de emergencia que escribí en Fortran, una herramienta de informes de logros estudiantiles construida en COBOL, o sistemas de IA modernos que aceleran el descubrimiento de medicamentos. El objetivo siempre ha sido el mismo: Dar sentido al mundo.
Ahora, con una IA poderosa en el horizonte, estamos cruzando un umbral. Por primera vez, podríamos tener el poder computacional y la inteligencia para abordar problemas que antes estaban fuera del alcance humano.
El columnista del New York Times, Kevin Roose, capturó bien este momento: "Cada semana, me encuentro con ingenieros y empresarios trabajando en IA que me dicen que el cambio—un gran cambio, un cambio que sacude el mundo, el tipo de transformación que nunca hemos visto antes—está a la vuelta de la esquina." Y eso sin contar los avances que llegan cada semana.
Solo en los últimos días, hemos visto a GPT-4o de OpenAI generar imágenes casi perfectas a partir de texto, Google lanzar lo que podría ser el modelo de razonamiento más avanzado hasta ahora en Gemini 2.5 Pro, y Runway presentar un modelo de video con consistencia de personaje y escena de toma a toma, algo que VentureBeat señala que ha eludido a la mayoría de los generadores de video de IA hasta ahora.
Lo que viene después es realmente difícil de predecir. No sabemos si la IA poderosa será un avance o un colapso, si ayudará a resolver la energía de fusión o desatará nuevos riesgos biológicos. Pero con cada vez más FLOPS en línea en los próximos cinco años, una cosa parece segura: La innovación llegará rápido y con fuerza. A medida que los FLOPS escalan, también deben hacerlo nuestras conversaciones sobre responsabilidad, regulación y contención.
Gary Grossman es EVP de la práctica de tecnología en Edelman y líder global del Centro de Excelencia en IA de Edelman.











