De MIPS a exaflops em poucas décadas: O poder de computação está explodindo e transformará a IA
Na recente conferência Nvidia GTC, a gigante da tecnologia revelou uma conquista revolucionária: o primeiro sistema de servidores em rack único capaz de atingir um exaflop. Isso é um impressionante um bilhão de bilhões de operações de ponto flutuante (FLOPS) por segundo. Esse feito é impulsionado pelo mais recente sistema GB200 NVL72 da Nvidia, equipado com as unidades de processamento gráfico (GPUs) Blackwell de ponta. Para colocar em perspectiva, esse sistema cabe em um rack de computador padrão que tem cerca de 1,8 metros de altura, pouco mais de 1 metro de profundidade e menos de 60 centímetros de largura.
Reduzindo um Exaflop: De Frontier a Blackwell
O anúncio me fez refletir sobre o quanto avançamos em apenas alguns anos. O primeiro computador capaz de atingir um exaflop no mundo, "Frontier", foi instalado no Oak Ridge National Laboratory em 2022. Construído pela HPE e equipado com GPUs e CPUs AMD, ele ocupava impressionantes 74 racks. Em contraste, o novo sistema da Nvidia concentra 73 vezes mais desempenho em um único rack. Isso é como triplicar o desempenho a cada ano por três anos consecutivos! É um testemunho dos incríveis avanços em densidade computacional, eficiência energética e design arquitetônico.
Também vale notar que, embora ambos os sistemas alcancem o marco do exascale, eles são projetados para propósitos diferentes. A classificação de exaflop da Nvidia é baseada em matemática de baixa precisão—operações de ponto flutuante de 4 bits e 8 bits—ideal para cargas de trabalho de AI, como treinamento e execução de grandes modelos de linguagem (LLMs). Esses cálculos priorizam velocidade em vez de precisão. Por outro lado, a classificação de exaflop do Frontier vem de matemática de dupla precisão de 64 bits, o padrão ouro para simulações científicas onde a precisão é fundamental.
Avançamos Muito (Muito Rápido)
O ritmo desse progresso é quase difícil de acreditar, especialmente quando penso nos primeiros dias da minha carreira em computação. Meu primeiro emprego foi como programador no DEC KL 1090, parte da série PDP-10 de mainframes de compartilhamento de tempo da DEC. Aquela máquina operava a modestos 1,8 milhão de instruções por segundo (MIPS). Ela se conectava a displays de tubo de raios catódicos (CRT) por meio de cabos fixos, sem gráficos propriamente ditos—apenas texto na tela. E, claro, não havia Internet. Usuários remotos tinham que se conectar por linhas telefônicas com modems que atingiam no máximo 1.200 bits por segundo.

500 Bilhões de Vezes Mais Poder Computacional
Embora comparar MIPS com FLOPS não seja uma comparação direta, isso nos dá uma ideia do salto incrível no poder computacional. MIPS mede a velocidade de processamento de inteiros, ótimo para computação de propósito geral e aplicações empresariais. FLOPS, por outro lado, mede o desempenho em ponto flutuante, crucial para cargas de trabalho científicas e o trabalho pesado por trás da AI moderna, como a matemática matricial e álgebra linear necessárias para treinar e executar modelos de aprendizado de máquina (ML).
Usando isso como um guia aproximado, o novo sistema da Nvidia é cerca de 500 bilhões de vezes mais poderoso que a antiga máquina DEC. É um exemplo impressionante do crescimento exponencial no poder computacional ao longo de uma única carreira. Isso faz você se perguntar: se alcançamos tanto em 40 anos, o que os próximos cinco anos podem trazer?
A Nvidia nos deu algumas pistas. No GTC, eles compartilharam um roteiro prevendo que seu sistema de rack completo de próxima geração, baseado na arquitetura Ultra "Vera Rubin", entregará 14 vezes o desempenho do atual rack Blackwell Ultra. Estamos falando de algo entre 14 e 15 exaflops em trabalho otimizado para AI nos próximos um ou dois anos.
Não se trata apenas de potência bruta. Comprimir esse desempenho em um único rack significa menos espaço físico, menos materiais e, potencialmente, menor uso de energia por operação. Embora não possamos esquecer, as demandas absolutas de energia desses sistemas ainda são enormes.
A AI Realmente Precisa de Todo Esse Poder Computacional?
Embora esses ganhos de desempenho sejam impressionantes, a indústria de AI agora enfrenta uma grande questão: de quanto poder computacional realmente precisamos, e a que custo? A corrida para construir novos data centers massivos de AI é impulsionada pelas demandas da computação em escala exa e modelos de AI cada vez mais capazes.
O projeto mais ambicioso é o Projeto Stargate de US$ 500 bilhões, planejando 20 data centers nos EUA, cada um com meio milhão de pés quadrados. Há uma onda de outros projetos hiperescala em andamento ou planejados ao redor do mundo, enquanto empresas e países correm para construir a infraestrutura para futuras cargas de trabalho de AI.
Alguns analistas estão preocupados com a possibilidade de estarmos construindo demais. As preocupações cresceram após o lançamento do R1, um modelo de raciocínio da DeepSeek da China que usa significativamente menos computação que seus pares. O recente cancelamento de arrendamentos pela Microsoft com vários provedores de data centers alimentou especulações de que eles podem estar repensando suas necessidades de infraestrutura de AI.
No entanto, The Register sugeriu que essa retirada pode estar mais relacionada aos data centers planejados não conseguirem atender às necessidades de energia e resfriamento dos sistemas de AI de próxima geração. Modelos de AI já estão pressionando os limites da infraestrutura atual. A MIT Technology Review relatou que muitos data centers na China estão enfrentando dificuldades e falhando porque foram construídos com especificações desatualizadas.
A Inferência de AI Demanda Mais FLOPs
Modelos de raciocínio fazem a maior parte de seu trabalho pesado em tempo de execução por meio de um processo chamado inferência. Esses modelos alimentam algumas das aplicações mais avançadas e intensivas em recursos, como assistentes de pesquisa profunda e a onda emergente de sistemas de AI agentic.
Embora o DeepSeek-R1 inicialmente tenha levado a indústria a pensar que a AI futura poderia precisar de menos poder computacional, o CEO da Nvidia, Jensen Huang, rebateu fortemente. Em uma entrevista à CNBC, ele argumentou o contrário: "Foi exatamente a conclusão oposta que todos tinham." Ele acrescentou que a AI de raciocínio consome 100 vezes mais computação que a AI não raciocinante.
À medida que a AI evolui de modelos de raciocínio para agentes autônomos e além, a demanda por poder computacional provavelmente aumentará novamente. Os próximos avanços podem vir em áreas como coordenação de agentes de AI, simulações de fusão ou gêmeos digitais em grande escala—tudo isso possibilitado pelo tipo de salto computacional que acabamos de ver.
Como se fosse uma deixa, a OpenAI anunciou US$ 40 bilhões em novo financiamento, a maior rodada de financiamento de tecnologia privada registrada. Em um post de blog, eles disseram que o financiamento "nos permite avançar ainda mais as fronteiras da pesquisa em AI, escalar nossa infraestrutura computacional e entregar ferramentas cada vez mais poderosas para as 500 milhões de pessoas que usam o ChatGPT toda semana."
Por que tanto capital está fluindo para a AI? As razões variam de competitividade a segurança nacional, mas um fator se destaca: a AI poderia aumentar os lucros corporativos em US$ 4,4 trilhões por ano, segundo a McKinsey.
O Que Vem a Seguir? É Impossível Prever
No fundo, os sistemas de informação são sobre simplificar a complexidade, seja um sistema de roteamento de veículos de emergência que escrevi em Fortran, uma ferramenta de relatórios de desempenho estudantil construída em COBOL, ou sistemas de AI modernos acelerando a descoberta de medicamentos. O objetivo sempre foi o mesmo: dar sentido ao mundo.
Agora, com uma AI poderosa no horizonte, estamos cruzando um limiar. Pela primeira vez, podemos ter o poder computacional e a inteligência para enfrentar problemas que antes estavam fora do alcance humano.
O colunista do New York Times, Kevin Roose, capturou bem este momento: "Toda semana, encontro engenheiros e empreendedores trabalhando em AI que me dizem que a mudança—uma grande mudança, uma mudança que abala o mundo, o tipo de transformação que nunca vimos antes—está logo ali." E isso sem contar os avanços que chegam a cada semana.
Nos últimos dias, vimos o GPT-4o da OpenAI gerar imagens quase perfeitas a partir de texto, o Google lançar o que pode ser o modelo de raciocínio mais avançado até agora com o Gemini 2.5 Pro, e a Runway revelar um modelo de vídeo com consistência de personagem e cena de plano a plano, algo que a VentureBeat observa que escapou à maioria dos geradores de vídeo de AI até agora.
O que vem a seguir é realmente impossível de prever. Não sabemos se a AI poderosa será um avanço ou uma falha, se ajudará a resolver a energia de fusão ou liberará novos riscos biológicos. Mas com cada vez mais FLOPS entrando em operação nos próximos cinco anos, uma coisa parece certa: a inovação virá rápido—e com força. À medida que os FLOPS escalam, também devem escalar nossas conversas sobre responsabilidade, regulamentação e contenção.
Gary Grossman é EVP da prática de tecnologia na Edelman e líder global do Edelman AI Center of Excellence.
Artigo relacionado
Dois acusados em um esquema para exportar ilegalmente chips de IA para a China
O Departamento de Justiça dos EUA (DOJ) anunciou na terça-feira que dois cidadãos chineses foram presos por supostamente orquestrarem a exportação ilegal de chips de IA de alto desempenho, avaliados e
Investimento de US$ 40 bilhões da Oracle em chips Nvidia impulsiona centro de dados de IA no Texas
A Oracle planeja investir aproximadamente US$ 40 bilhões em chips Nvidia para alimentar um grande novo centro de dados no Texas, desenvolvido pela OpenAI, conforme relatado pelo Financial Times. Este
Ganhos da Nvidia: Além das Restrições de Exportação para a Demanda por Novo Hardware
A Nvidia anunciará seus ganhos do primeiro trimestre fiscal de 2026, encerrado em 27 de abril, após o fechamento do mercado na quarta-feira.Embora os controles de exportação de chips dos EUA tenham ge
Comentários (4)
0/200
JackMoore
27 de Agosto de 2025 à28 16:01:28 WEST
Mind-blowing speed! Nvidia's exaflop system is a game-changer for AI. Can't wait to see what crazy innovations come next! 🚀
0
StephenRoberts
12 de Agosto de 2025 à59 10:00:59 WEST
Mind-blowing speed! Nvidia’s exaflop system is a game-changer for AI. Can’t wait to see what crazy applications come out of this! 🚀
0
MarkGonzalez
28 de Julho de 2025 à21 02:20:21 WEST
Mind blown! An exaflop in a single rack? Nvidia's pushing AI into hyperspace. Can't wait to see what crazy applications come next. 🚀
0
MatthewHill
22 de Julho de 2025 à3 02:25:03 WEST
Mind blown by this exaflop server rack! Nvidia's pushing AI compute to insane levels. Can't wait to see what crazy applications come out of this power. 🚀
0
Na recente conferência Nvidia GTC, a gigante da tecnologia revelou uma conquista revolucionária: o primeiro sistema de servidores em rack único capaz de atingir um exaflop. Isso é um impressionante um bilhão de bilhões de operações de ponto flutuante (FLOPS) por segundo. Esse feito é impulsionado pelo mais recente sistema GB200 NVL72 da Nvidia, equipado com as unidades de processamento gráfico (GPUs) Blackwell de ponta. Para colocar em perspectiva, esse sistema cabe em um rack de computador padrão que tem cerca de 1,8 metros de altura, pouco mais de 1 metro de profundidade e menos de 60 centímetros de largura.
Reduzindo um Exaflop: De Frontier a Blackwell
O anúncio me fez refletir sobre o quanto avançamos em apenas alguns anos. O primeiro computador capaz de atingir um exaflop no mundo, "Frontier", foi instalado no Oak Ridge National Laboratory em 2022. Construído pela HPE e equipado com GPUs e CPUs AMD, ele ocupava impressionantes 74 racks. Em contraste, o novo sistema da Nvidia concentra 73 vezes mais desempenho em um único rack. Isso é como triplicar o desempenho a cada ano por três anos consecutivos! É um testemunho dos incríveis avanços em densidade computacional, eficiência energética e design arquitetônico.
Também vale notar que, embora ambos os sistemas alcancem o marco do exascale, eles são projetados para propósitos diferentes. A classificação de exaflop da Nvidia é baseada em matemática de baixa precisão—operações de ponto flutuante de 4 bits e 8 bits—ideal para cargas de trabalho de AI, como treinamento e execução de grandes modelos de linguagem (LLMs). Esses cálculos priorizam velocidade em vez de precisão. Por outro lado, a classificação de exaflop do Frontier vem de matemática de dupla precisão de 64 bits, o padrão ouro para simulações científicas onde a precisão é fundamental.
Avançamos Muito (Muito Rápido)
O ritmo desse progresso é quase difícil de acreditar, especialmente quando penso nos primeiros dias da minha carreira em computação. Meu primeiro emprego foi como programador no DEC KL 1090, parte da série PDP-10 de mainframes de compartilhamento de tempo da DEC. Aquela máquina operava a modestos 1,8 milhão de instruções por segundo (MIPS). Ela se conectava a displays de tubo de raios catódicos (CRT) por meio de cabos fixos, sem gráficos propriamente ditos—apenas texto na tela. E, claro, não havia Internet. Usuários remotos tinham que se conectar por linhas telefônicas com modems que atingiam no máximo 1.200 bits por segundo.
500 Bilhões de Vezes Mais Poder Computacional
Embora comparar MIPS com FLOPS não seja uma comparação direta, isso nos dá uma ideia do salto incrível no poder computacional. MIPS mede a velocidade de processamento de inteiros, ótimo para computação de propósito geral e aplicações empresariais. FLOPS, por outro lado, mede o desempenho em ponto flutuante, crucial para cargas de trabalho científicas e o trabalho pesado por trás da AI moderna, como a matemática matricial e álgebra linear necessárias para treinar e executar modelos de aprendizado de máquina (ML).
Usando isso como um guia aproximado, o novo sistema da Nvidia é cerca de 500 bilhões de vezes mais poderoso que a antiga máquina DEC. É um exemplo impressionante do crescimento exponencial no poder computacional ao longo de uma única carreira. Isso faz você se perguntar: se alcançamos tanto em 40 anos, o que os próximos cinco anos podem trazer?
A Nvidia nos deu algumas pistas. No GTC, eles compartilharam um roteiro prevendo que seu sistema de rack completo de próxima geração, baseado na arquitetura Ultra "Vera Rubin", entregará 14 vezes o desempenho do atual rack Blackwell Ultra. Estamos falando de algo entre 14 e 15 exaflops em trabalho otimizado para AI nos próximos um ou dois anos.
Não se trata apenas de potência bruta. Comprimir esse desempenho em um único rack significa menos espaço físico, menos materiais e, potencialmente, menor uso de energia por operação. Embora não possamos esquecer, as demandas absolutas de energia desses sistemas ainda são enormes.
A AI Realmente Precisa de Todo Esse Poder Computacional?
Embora esses ganhos de desempenho sejam impressionantes, a indústria de AI agora enfrenta uma grande questão: de quanto poder computacional realmente precisamos, e a que custo? A corrida para construir novos data centers massivos de AI é impulsionada pelas demandas da computação em escala exa e modelos de AI cada vez mais capazes.
O projeto mais ambicioso é o Projeto Stargate de US$ 500 bilhões, planejando 20 data centers nos EUA, cada um com meio milhão de pés quadrados. Há uma onda de outros projetos hiperescala em andamento ou planejados ao redor do mundo, enquanto empresas e países correm para construir a infraestrutura para futuras cargas de trabalho de AI.
Alguns analistas estão preocupados com a possibilidade de estarmos construindo demais. As preocupações cresceram após o lançamento do R1, um modelo de raciocínio da DeepSeek da China que usa significativamente menos computação que seus pares. O recente cancelamento de arrendamentos pela Microsoft com vários provedores de data centers alimentou especulações de que eles podem estar repensando suas necessidades de infraestrutura de AI.
No entanto, The Register sugeriu que essa retirada pode estar mais relacionada aos data centers planejados não conseguirem atender às necessidades de energia e resfriamento dos sistemas de AI de próxima geração. Modelos de AI já estão pressionando os limites da infraestrutura atual. A MIT Technology Review relatou que muitos data centers na China estão enfrentando dificuldades e falhando porque foram construídos com especificações desatualizadas.
A Inferência de AI Demanda Mais FLOPs
Modelos de raciocínio fazem a maior parte de seu trabalho pesado em tempo de execução por meio de um processo chamado inferência. Esses modelos alimentam algumas das aplicações mais avançadas e intensivas em recursos, como assistentes de pesquisa profunda e a onda emergente de sistemas de AI agentic.
Embora o DeepSeek-R1 inicialmente tenha levado a indústria a pensar que a AI futura poderia precisar de menos poder computacional, o CEO da Nvidia, Jensen Huang, rebateu fortemente. Em uma entrevista à CNBC, ele argumentou o contrário: "Foi exatamente a conclusão oposta que todos tinham." Ele acrescentou que a AI de raciocínio consome 100 vezes mais computação que a AI não raciocinante.
À medida que a AI evolui de modelos de raciocínio para agentes autônomos e além, a demanda por poder computacional provavelmente aumentará novamente. Os próximos avanços podem vir em áreas como coordenação de agentes de AI, simulações de fusão ou gêmeos digitais em grande escala—tudo isso possibilitado pelo tipo de salto computacional que acabamos de ver.
Como se fosse uma deixa, a OpenAI anunciou US$ 40 bilhões em novo financiamento, a maior rodada de financiamento de tecnologia privada registrada. Em um post de blog, eles disseram que o financiamento "nos permite avançar ainda mais as fronteiras da pesquisa em AI, escalar nossa infraestrutura computacional e entregar ferramentas cada vez mais poderosas para as 500 milhões de pessoas que usam o ChatGPT toda semana."
Por que tanto capital está fluindo para a AI? As razões variam de competitividade a segurança nacional, mas um fator se destaca: a AI poderia aumentar os lucros corporativos em US$ 4,4 trilhões por ano, segundo a McKinsey.
O Que Vem a Seguir? É Impossível Prever
No fundo, os sistemas de informação são sobre simplificar a complexidade, seja um sistema de roteamento de veículos de emergência que escrevi em Fortran, uma ferramenta de relatórios de desempenho estudantil construída em COBOL, ou sistemas de AI modernos acelerando a descoberta de medicamentos. O objetivo sempre foi o mesmo: dar sentido ao mundo.
Agora, com uma AI poderosa no horizonte, estamos cruzando um limiar. Pela primeira vez, podemos ter o poder computacional e a inteligência para enfrentar problemas que antes estavam fora do alcance humano.
O colunista do New York Times, Kevin Roose, capturou bem este momento: "Toda semana, encontro engenheiros e empreendedores trabalhando em AI que me dizem que a mudança—uma grande mudança, uma mudança que abala o mundo, o tipo de transformação que nunca vimos antes—está logo ali." E isso sem contar os avanços que chegam a cada semana.
Nos últimos dias, vimos o GPT-4o da OpenAI gerar imagens quase perfeitas a partir de texto, o Google lançar o que pode ser o modelo de raciocínio mais avançado até agora com o Gemini 2.5 Pro, e a Runway revelar um modelo de vídeo com consistência de personagem e cena de plano a plano, algo que a VentureBeat observa que escapou à maioria dos geradores de vídeo de AI até agora.
O que vem a seguir é realmente impossível de prever. Não sabemos se a AI poderosa será um avanço ou uma falha, se ajudará a resolver a energia de fusão ou liberará novos riscos biológicos. Mas com cada vez mais FLOPS entrando em operação nos próximos cinco anos, uma coisa parece certa: a inovação virá rápido—e com força. À medida que os FLOPS escalam, também devem escalar nossas conversas sobre responsabilidade, regulamentação e contenção.
Gary Grossman é EVP da prática de tecnologia na Edelman e líder global do Edelman AI Center of Excellence.



Mind-blowing speed! Nvidia's exaflop system is a game-changer for AI. Can't wait to see what crazy innovations come next! 🚀




Mind-blowing speed! Nvidia’s exaflop system is a game-changer for AI. Can’t wait to see what crazy applications come out of this! 🚀




Mind blown! An exaflop in a single rack? Nvidia's pushing AI into hyperspace. Can't wait to see what crazy applications come next. 🚀




Mind blown by this exaflop server rack! Nvidia's pushing AI compute to insane levels. Can't wait to see what crazy applications come out of this power. 🚀












