opción
Hogar
Noticias
De MIPS a exaflops en solo décadas: El poder computacional está explotando y transformará la IA

De MIPS a exaflops en solo décadas: El poder computacional está explotando y transformará la IA

25 de junio de 2025
69

En la reciente conferencia Nvidia GTC, el gigante tecnológico presentó un logro revolucionario: el primer sistema de servidores de unsolo rack capaz de alcanzar un exaflop. Eso es un asombroso mil millones de billones de operaciones de punto flotante (FLOPS) por segundo. Este logro está impulsado por el último sistema GB200 NVL72 de Nvidia, que incorpora las unidades de procesamiento gráfico (GPUs) de última generación Blackwell. Para ponerlo en perspectiva, este sistema cabe en un rack de computadora estándar que mide aproximadamente 6 pies de alto, poco más de 3 pies de profundidad y menos de 2 pies de ancho.

Reduciendo un Exaflop: De Frontier a Blackwell

El anuncio me hizo reflexionar sobre cuánto hemos avanzado en solo unos pocos años. La primera computadora capaz de alcanzar un exaflop, "Frontier", fue instalada en el Oak Ridge National Laboratory en 2022. Construida por HPE y alimentada por GPUs y CPUs de AMD, ocupaba un enorme espacio de 74 racks. En contraste, el nuevo sistema de Nvidia concentra 73 veces más rendimiento en un solo rack. ¡Eso es como triplicar el rendimiento cada año durante tres años consecutivos! Es un testimonio de los increíbles avances en densidad de computación, eficiencia energética y diseño arquitectónico.

También vale la pena señalar que, aunque ambos sistemas alcanzan el hito de la escala exa, están diseñados para propósitos diferentes. La calificación de exaflop de Nvidia se basa en matemáticas de menor precisión—operaciones de punto flotante de 4 bits y 8 bits—ideales para cargas de trabajo de AI como el entrenamiento y la ejecución de grandes modelos de lenguaje (LLMs). Estos cálculos priorizan la velocidad sobre la precisión. Por otro lado, la calificación de exaflop de Frontier proviene de matemáticas de doble precisión de 64 bits, el estándar de oro para simulaciones científicas donde la precisión es primordial.

Hemos Recorrido un Largo Camino (Muy Rápido)

El ritmo de este progreso es casi difícil de creer, especialmente cuando pienso en los primeros días de mi carrera en informática. Mi primer trabajo fue como programador en el DEC KL 1090, parte de la serie PDP-10 de mainframes de tiempo compartido de DEC. Esa máquina funcionaba a un modesto 1.8 millones de instrucciones por segundo (MIPS). Se conectaba a pantallas de tubo de rayos catódicos (CRT) mediante cables fijos, sin gráficos de los que hablar, solo texto en una pantalla. Y, por supuesto, no había Internet. Los usuarios remotos debían conectarse a través de líneas telefónicas con módems que alcanzaban un máximo de 1,200 bits por segundo.

Sistema DEC 10; Fuente: Por Joe Mabel, CC BY-SA 3.0.

500 Mil Millones de Veces Más Potencia de Cómputo

Aunque comparar MIPS con FLOPS no es una comparación directa de manzanas con manzanas, nos da una idea del increíble salto en potencia de cómputo. MIPS mide la velocidad de procesamiento de enteros, ideal para computación de propósito general y aplicaciones empresariales. FLOPS, por otro lado, mide el rendimiento de punto flotante, crucial para cargas de trabajo científicas y el trabajo pesado detrás de la AI moderna, como las matemáticas de matrices y el álgebra lineal necesarios para entrenar y ejecutar modelos de aprendizaje automático (ML).

Usando esto como guía aproximada, el nuevo sistema de Nvidia es aproximadamente 500 mil millones de veces más poderoso que la antigua máquina DEC. Es un ejemplo impresionante del crecimiento exponencial en la potencia de cómputo durante una sola carrera. Te hace preguntarte: si hemos logrado tanto en 40 años, ¿qué podrían traer los próximos cinco años?

Nvidia nos ha dado algunas pistas. En GTC, compartieron una hoja de ruta que predice que su sistema de rack completo de próxima generación, basado en la arquitectura Ultra "Vera Rubin", ofrecerá 14 veces el rendimiento del actual rack Blackwell Ultra. Estamos hablando de entre 14 y 15 exaflops en trabajos optimizados para AI dentro del próximo año o dos.

Tampoco se trata solo de potencia bruta. Comprimir este rendimiento en un solo rack significa menos espacio físico, menos materiales y, potencialmente, un menor uso de energía por operación. Aunque no olvidemos que las demandas absolutas de energía de estos sistemas siguen siendo enormes.

¿Realmente Necesita la AI Toda Esa Potencia de Cómputo?

Aunque estos avances en rendimiento son impresionantes, la industria de la AI ahora está lidiando con una gran pregunta: ¿Cuánta potencia de cómputo necesitamos realmente y a qué costo? La carrera para construir nuevos centros de datos masivos de AI está impulsada por las demandas de la computación a escala exa y modelos de AI cada vez más capaces.

El proyecto más ambicioso es el Proyecto Stargate de $500 mil millones, que planea 20 centros de datos en los EE. UU., cada uno de medio millón de pies cuadrados. Hay una ola de otros proyectos de hiperescala en marcha o en planificación en todo el mundo, mientras las empresas y los países se apresuran a construir la infraestructura para futuras cargas de trabajo de AI.

Algunos analistas están preocupados de que podríamos estar sobreconstruyendo. Las preocupaciones crecieron tras el lanzamiento de R1, un modelo de razonamiento de DeepSeek de China que usa significativamente menos cómputo que sus pares. La reciente cancelación de Microsoft de contratos de arrendamiento con varios proveedores de centros de datos ha alimentado especulaciones de que podrían estar reconsiderando sus necesidades de infraestructura de AI.

Sin embargo, The Register sugirió que este retroceso podría estar más relacionado con que los centros de datos planificados no puedan manejar las necesidades de energía y enfriamiento de los sistemas de AI de próxima generación. Los modelos de AI ya están empujando los límites de la infraestructura actual. MIT Technology Review informó que muchos centros de datos en China están enfrentando dificultades y fallando porque fueron construidos con especificaciones obsoletas.

La Inferencia de AI Demanda Más FLOPS

Los modelos de razonamiento realizan la mayor parte de su trabajo pesado en tiempo de ejecución a través de un proceso llamado inferencia. Estos modelos impulsan algunas de las aplicaciones más avanzadas y que consumen más recursos, como asistentes de investigación profunda y la ola emergente de sistemas de AI agentica.

Aunque DeepSeek-R1 inicialmente llevó a la industria a pensar que la AI del futuro podría necesitar menos potencia de cómputo, el CEO de Nvidia, Jensen Huang, respondió con fuerza. En una entrevista con CNBC, argumentó lo contrario: "Fue exactamente la conclusión opuesta a la que todos llegaron." Añadió que la AI de razonamiento consume 100 veces más cómputo que la AI no razonadora.

A medida que la AI evoluciona de modelos de razonamiento a agentes autónomos y más allá, es probable que la demanda de potencia de cómputo vuelva a dispararse. Los próximos avances podrían llegar en áreas como la coordinación de agentes de AI, simulaciones de fusión o gemelos digitales a gran escala, todos hechos posibles por el tipo de salto en cómputo que acabamos de ver.

Como si fuera una señal, OpenAI anunció $40 mil millones en nueva financiación, la mayor ronda de financiación de tecnología privada registrada. En una publicación de blog, dijeron que la financiación "nos permite empujar aún más las fronteras de la investigación de AI, escalar nuestra infraestructura de cómputo y ofrecer herramientas cada vez más potentes para los 500 millones de personas que usan ChatGPT cada semana."

¿Por qué fluye tanto capital hacia la AI? Las razones van desde la competitividad hasta la seguridad nacional, pero un factor destaca: según McKinsey, la AI podría aumentar las ganancias corporativas en $4.4 billones al año.

¿Qué Sigue? Es Difícil de Predecir

En su núcleo, los sistemas de información se tratan de simplificar la complejidad, ya sea un sistema de enrutamiento de vehículos de emergencia que escribí en Fortran, una herramienta de informes de logros estudiantiles construida en COBOL, o sistemas de AI modernos que aceleran el descubrimiento de medicamentos. El objetivo siempre ha sido el mismo: dar sentido al mundo.

Ahora, con una AI poderosa en el horizonte, estamos cruzando un umbral. Por primera vez, podríamos tener la potencia de cómputo y la inteligencia para abordar problemas que antes estaban fuera del alcance humano.

El columnista del New York Times, Kevin Roose, capturó bien este momento: "Cada semana, me encuentro con ingenieros y emprendedores trabajando en AI que me dicen que el cambio—un cambio grande, un cambio que sacude el mundo, el tipo de transformación que nunca hemos visto antes—está a la vuelta de la esquina." Y eso sin contar los avances que llegan cada semana.

Solo en los últimos días, hemos visto a GPT-4o de OpenAI generar imágenes casi perfectas a partir de texto, Google lanzar lo que podría ser el modelo de razonamiento más avanzado hasta ahora en Gemini 2.5 Pro, y Runway presentar un modelo de video con consistencia de personaje y escena de toma a toma, algo que VentureBeat señala que ha eludido a la mayoría de los generadores de video de AI hasta ahora.

Lo que viene después es realmente difícil de predecir. No sabemos si la AI poderosa será un avance o un colapso, si ayudará a resolver la energía de fusión o desatará nuevos riesgos biológicos. Pero con cada vez más FLOPS en línea en los próximos cinco años, una cosa parece segura: la innovación llegará rápido y con fuerza. A medida que los FLOPS escalan, también deben hacerlo nuestras conversaciones sobre responsabilidad, regulación y moderación.

Gary Grossman es EVP de la práctica de tecnología en Edelman y líder global del Centro de Excelencia de AI de Edelman.

Artículo relacionado
Dos acusados en un plan para exportar ilegalmente chips de inteligencia artificial a China Dos acusados en un plan para exportar ilegalmente chips de inteligencia artificial a China El Departamento de Justicia de Estados Unidos (DOJ) anunció el martes la detención de dos ciudadanos chinos por orquestar presuntamente la exportación ilegal a China de chips de inteligencia artificia
Inversión de Oracle de $40 mil millones en chips Nvidia impulsa el centro de datos de IA en Texas Inversión de Oracle de $40 mil millones en chips Nvidia impulsa el centro de datos de IA en Texas Oracle planea invertir aproximadamente $40 mil millones en chips Nvidia para alimentar un importante centro de datos nuevo en Texas, desarrollado por OpenAI, según informó el Financial Times. Este acu
Ganancias de Nvidia: Más allá de las restricciones de exportación hacia la demanda de nuevo hardware Ganancias de Nvidia: Más allá de las restricciones de exportación hacia la demanda de nuevo hardware Nvidia anunciará sus ganancias del primer trimestre del año fiscal 2026, que finaliza el 27 de abril, después del cierre del mercado el miércoles.Aunque los controles de exportación de chips de EE. UU
comentario (4)
0/200
JackMoore
JackMoore 27 de agosto de 2025 17:01:28 GMT+02:00

Mind-blowing speed! Nvidia's exaflop system is a game-changer for AI. Can't wait to see what crazy innovations come next! 🚀

StephenRoberts
StephenRoberts 12 de agosto de 2025 11:00:59 GMT+02:00

Mind-blowing speed! Nvidia’s exaflop system is a game-changer for AI. Can’t wait to see what crazy applications come out of this! 🚀

MarkGonzalez
MarkGonzalez 28 de julio de 2025 03:20:21 GMT+02:00

Mind blown! An exaflop in a single rack? Nvidia's pushing AI into hyperspace. Can't wait to see what crazy applications come next. 🚀

MatthewHill
MatthewHill 22 de julio de 2025 03:25:03 GMT+02:00

Mind blown by this exaflop server rack! Nvidia's pushing AI compute to insane levels. Can't wait to see what crazy applications come out of this power. 🚀

Volver arriba
OR