De MIPS a exaflops em poucas décadas: O poder de computação está explodindo e transformará a IA
Na recente conferência Nvidia GTC, a gigante da tecnologia revelou uma conquista revolucionária: o primeiro sistema de servidores em rack único capaz de atingir um exaflop. Isso é um impressionante um bilhão de bilhões de operações de ponto flutuante (FLOPS) por segundo. Esse feito é impulsionado pelo mais recente sistema GB200 NVL72 da Nvidia, equipado com as avançadas unidades de processamento gráfico (GPUs) Blackwell. Para colocar em perspectiva, esse sistema cabe em um rack de computador padrão com cerca de 1,8 metros de altura, pouco mais de 1 metro de profundidade e menos de 60 centímetros de largura.
Reduzindo um Exaflop: De Frontier a Blackwell
O anúncio me fez refletir sobre o quão longe chegamos em apenas alguns anos. O primeiro computador capaz de atingir um exaflop, "Frontier", foi instalado no Oak Ridge National Laboratory em 2022. Construído pela HPE e equipado com GPUs e CPUs da AMD, ele ocupava impressionantes 74 racks. Em contrapartida, o novo sistema da Nvidia concentra 73 vezes mais desempenho em um único rack. Isso equivale a triplicar o desempenho a cada ano durante três anos consecutivos! É um testemunho dos incríveis avanços em densidade computacional, eficiência energética e design arquitetural.
Também vale notar que, embora ambos os sistemas alcancem o marco do exascale, eles foram projetados para propósitos diferentes. A classificação de exaflop da Nvidia é baseada em matemática de baixa precisão — operações de ponto flutuante de 4 bits e 8 bits — ideal para cargas de trabalho de IA, como treinamento e execução de grandes modelos de linguagem (LLMs). Esses cálculos priorizam velocidade em vez de precisão. Por outro lado, a classificação de exaflop do Frontier vem de matemática de dupla precisão de 64 bits, o padrão ouro para simulações científicas onde a precisão é fundamental.
Percorremos um Longo Caminho (Muito Rapidamente)
O ritmo desse progresso é quase inacreditável, especialmente quando penso nos primeiros dias da minha carreira em computação. Meu primeiro emprego foi como programador no DEC KL 1090, parte da série PDP-10 de mainframes de tempo compartilhado da DEC. Aquela máquina operava a modestos 1,8 milhões de instruções por segundo (MIPS). Ela se conectava a monitores de tubo de raios catódicos (CRT) por meio de cabos fixos, sem gráficos propriamente ditos — apenas texto na tela. E, claro, não havia Internet. Usuários remotos precisavam se conectar por linhas telefônicas com modems que atingiam no máximo 1.200 bits por segundo.

500 Bilhões de Vezes Mais Poder Computacional
Embora comparar MIPS com FLOPS não seja uma comparação direta, isso nos dá uma ideia do salto incrível no poder de computação. MIPS mede a velocidade de processamento de inteiros, ótimo para computação de propósito geral e aplicações comerciais. FLOPS, por outro lado, mede o desempenho de ponto flutuante, crucial para cargas de trabalho científicas e o trabalho pesado por trás da IA moderna, como a matemática de matrizes e álgebra linear necessária para treinar e executar modelos de aprendizado de máquina (ML).
Usando isso como guia aproximada, o novo sistema da Nvidia é cerca de 500 bilhões de vezes mais poderoso que a antiga máquina DEC. É um exemplo impressionante do crescimento exponencial no poder de computação ao longo de uma única carreira. Isso nos faz pensar: se alcançamos tanto em 40 anos, o que os próximos cinco anos podem trazer?
A Nvidia nos deu algumas pistas. No GTC, eles compartilharam um roadmap prevendo que seu sistema de rack completo de próxima geração, baseado na arquitetura Ultra "Vera Rubin", entregará 14 vezes o desempenho do atual rack Blackwell Ultra. Estamos falando de algo entre 14 e 15 exaflops em trabalho otimizado para IA nos próximos um ou dois anos.
Não se trata apenas de potência bruta. Comprimir esse desempenho em um único rack significa menos espaço físico, menos materiais e, potencialmente, menor consumo de energia por operação. Embora não possamos esquecer que as demandas absolutas de energia desses sistemas ainda são enormes.
A IA Realmente Precisa de Todo Esse Poder Computacional?
Embora esses ganhos de desempenho sejam impressionantes, a indústria de IA agora enfrenta uma grande questão: Quanto poder de computação realmente precisamos, e a que custo? A corrida para construir novos data centers massivos de IA é impulsionada pelas demandas da computação em escala exa e por modelos de IA cada vez mais capazes.
O projeto mais ambicioso é o Projeto Stargate, de US$ 500 bilhões, que planeja 20 data centers nos EUA, cada um com meio milhão de pés quadrados. Há uma onda de outros projetos de hiperescala em andamento ou planejados ao redor do mundo, à medida que empresas e países correm para construir a infraestrutura para futuras cargas de trabalho de IA.
Alguns analistas estão preocupados que possamos estar construindo demais. As preocupações cresceram após o lançamento do R Sede DeepSeek da China, um modelo de raciocínio que usa significativamente menos computação que seus pares. O recente cancelamento de contratos de locação da Microsoft com vários provedores de data centers alimentou especulações de que eles podem estar repensando suas necessidades de infraestrutura de IA.
No entanto, The Register sugeriu que essa redução pode estar mais relacionada aos data centers planejados não conseguirem atender às necessidades de energia e resfriamento dos sistemas de IA de próxima geração. Os modelos de IA já estão testando os limites da infraestrutura atual. A MIT Technology Review relatou que muitos data centers na China estão enfrentando dificuldades e falhando porque foram construídos com especificações desatualizadas.
A Inferência de IA Demanda Mais FLOPs
Modelos de raciocínio fazem a maior parte de seu trabalho pesado em tempo de execução por meio de um processo chamado inferência. Esses modelos alimentam algumas das aplicações mais avançadas e intensivas em recursos, como assistentes de pesquisa profunda e a onda emergente de sistemas de IA agentivos.
Embora o DeepSeek-R1 inicialmente tenha levado a indústria a pensar que a IA futura poderia precisar de menos poder computacional, o CEO da Nvidia, Jensen Huang, rebateu fortemente. Em uma entrevista à CNBC, ele argumentou o contrário: "Foi exatamente a conclusão oposta que todos tiveram." Ele acrescentou que a IA de raciocínio consome 100 vezes mais computação do que a IA não raciocinante.
À medida que a IA evolui de modelos de raciocínio para agentes autônomos e além, a demanda por poder computacional provavelmente aumentará novamente. Os próximos avanços podem vir em áreas como coordenação de agentes de IA, simulações de fusão ou gêmeos digitais em grande escala — todos possibilitados pelo tipo de salto computacional que acabamos de ver.
Quase como se fosse uma deixa, a OpenAI anunciou US$ 40 bilhões em novos financiamentos, a maior rodada de financiamento de tecnologia privada registrada. Em um post de blog, eles disseram que o financiamento "nos permite avançar ainda mais as fronteiras da pesquisa em IA, escalar nossa infraestrutura de computação e entregar ferramentas cada vez mais poderosas para os 500 milhões de pessoas que usam o ChatGPT toda semana."
Por que tanto capital está fluindo para a IA? As razões variam de competitividade a segurança nacional, mas um fator se destaca: a IA poderia aumentar os lucros corporativos em US$ 4,4 trilhões por ano, segundo a McKinsey.
O Que Vem a Seguir? É Difícil Adivinhar
No fundo, os sistemas de informação são sobre simplificar a complexidade, seja um sistema de roteamento de veículos de emergência que escrevi em Fortran, uma ferramenta de relatórios de desempenho estudantil construída em COBOL, ou sistemas modernos de IA acelerando a descoberta de medicamentos. O objetivo sempre foi o mesmo: dar sentido ao mundo.
Agora, com uma IA poderosa no horizonte, estamos cruzando um limiar. Pela primeira vez, podemos ter o poder computacional e a inteligência para enfrentar problemas que antes estavam fora do alcance humano.
O colunista do New York Times, Kevin Roose, capturou bem esse momento: "Toda semana, encontro engenheiros e empreendedores trabalhando em IA que me dizem que a mudança — grande mudança, mudança que abala o mundo, o tipo de transformação que nunca vimos antes — está logo ali na esquina." E isso sem contar os avanços que chegam a cada semana.
Nos últimos dias, vimos o GPT-4o da OpenAI gerar imagens quase perfeitas a partir de texto, o Google lançar o que pode ser o modelo de raciocínio mais avançado até agora com o Gemini 2.5 Pro, e a Runway revelar um modelo de vídeo com consistência de personagem e cena de cena a cena, algo que a VentureBeat observa que escapou à maioria dos geradores de vídeo de IA até agora.
O que vem a seguir é realmente difícil de adivinhar. Não sabemos se a IA poderosa será um avanço ou um colapso, se ajudará a resolver a energia de fusão ou desencadeará novos riscos biológicos. Mas com cada vez mais FLOPS entrando em operação nos próximos cinco anos, uma coisa parece certa: a inovação virá rápido — e com força. À medida que os FLOPS escalam, também devem escalar nossas conversas sobre responsabilidade, regulação e contenção.
Gary Grossman é EVP da prática de tecnologia na Edelman e líder global do Centro de Excelência em IA da Edelman.
Artigo relacionado
Novo Estudo Revela Quanto Dados os LLMs Realmente Memorizam
Quanto os Modelos de IA Realmente Memorizam? Nova Pesquisa Revela Insights SurpreendentesTodos sabemos que grandes modelos de linguagem (LLMs) como ChatGPT, Claude e Gemini são treinados em conjuntos
Nvidia fornece Blueprint Omniverse para gêmeos digitais de fábricas de IA
NVIDIA Anuncia Expansão Importante do Blueprint Omniverse para Gêmeos Digitais de Fábricas de IAEm um grande anúncio na Computex 2025 em Taipei, a NVIDIA ampliou significativamente o escopo de seu Blu
O Huawei Supernode 384 perturba a hegemonia da Nvidia no mercado de IA
Quebra de Huawei em Arquitetura de Processamento de IA: O Supernode 384No constante evoluir do mundo da inteligência artificial, a Huawei surpreendeu com a arquitetura Supernode 38
Comentários (2)
0/200
MarkGonzalez
28 de Julho de 2025 à21 02:20:21 WEST
Mind blown! An exaflop in a single rack? Nvidia's pushing AI into hyperspace. Can't wait to see what crazy applications come next. 🚀
0
MatthewHill
22 de Julho de 2025 à3 02:25:03 WEST
Mind blown by this exaflop server rack! Nvidia's pushing AI compute to insane levels. Can't wait to see what crazy applications come out of this power. 🚀
0
Na recente conferência Nvidia GTC, a gigante da tecnologia revelou uma conquista revolucionária: o primeiro sistema de servidores em rack único capaz de atingir um exaflop. Isso é um impressionante um bilhão de bilhões de operações de ponto flutuante (FLOPS) por segundo. Esse feito é impulsionado pelo mais recente sistema GB200 NVL72 da Nvidia, equipado com as avançadas unidades de processamento gráfico (GPUs) Blackwell. Para colocar em perspectiva, esse sistema cabe em um rack de computador padrão com cerca de 1,8 metros de altura, pouco mais de 1 metro de profundidade e menos de 60 centímetros de largura.
Reduzindo um Exaflop: De Frontier a Blackwell
O anúncio me fez refletir sobre o quão longe chegamos em apenas alguns anos. O primeiro computador capaz de atingir um exaflop, "Frontier", foi instalado no Oak Ridge National Laboratory em 2022. Construído pela HPE e equipado com GPUs e CPUs da AMD, ele ocupava impressionantes 74 racks. Em contrapartida, o novo sistema da Nvidia concentra 73 vezes mais desempenho em um único rack. Isso equivale a triplicar o desempenho a cada ano durante três anos consecutivos! É um testemunho dos incríveis avanços em densidade computacional, eficiência energética e design arquitetural.
Também vale notar que, embora ambos os sistemas alcancem o marco do exascale, eles foram projetados para propósitos diferentes. A classificação de exaflop da Nvidia é baseada em matemática de baixa precisão — operações de ponto flutuante de 4 bits e 8 bits — ideal para cargas de trabalho de IA, como treinamento e execução de grandes modelos de linguagem (LLMs). Esses cálculos priorizam velocidade em vez de precisão. Por outro lado, a classificação de exaflop do Frontier vem de matemática de dupla precisão de 64 bits, o padrão ouro para simulações científicas onde a precisão é fundamental.
Percorremos um Longo Caminho (Muito Rapidamente)
O ritmo desse progresso é quase inacreditável, especialmente quando penso nos primeiros dias da minha carreira em computação. Meu primeiro emprego foi como programador no DEC KL 1090, parte da série PDP-10 de mainframes de tempo compartilhado da DEC. Aquela máquina operava a modestos 1,8 milhões de instruções por segundo (MIPS). Ela se conectava a monitores de tubo de raios catódicos (CRT) por meio de cabos fixos, sem gráficos propriamente ditos — apenas texto na tela. E, claro, não havia Internet. Usuários remotos precisavam se conectar por linhas telefônicas com modems que atingiam no máximo 1.200 bits por segundo.
500 Bilhões de Vezes Mais Poder Computacional
Embora comparar MIPS com FLOPS não seja uma comparação direta, isso nos dá uma ideia do salto incrível no poder de computação. MIPS mede a velocidade de processamento de inteiros, ótimo para computação de propósito geral e aplicações comerciais. FLOPS, por outro lado, mede o desempenho de ponto flutuante, crucial para cargas de trabalho científicas e o trabalho pesado por trás da IA moderna, como a matemática de matrizes e álgebra linear necessária para treinar e executar modelos de aprendizado de máquina (ML).
Usando isso como guia aproximada, o novo sistema da Nvidia é cerca de 500 bilhões de vezes mais poderoso que a antiga máquina DEC. É um exemplo impressionante do crescimento exponencial no poder de computação ao longo de uma única carreira. Isso nos faz pensar: se alcançamos tanto em 40 anos, o que os próximos cinco anos podem trazer?
A Nvidia nos deu algumas pistas. No GTC, eles compartilharam um roadmap prevendo que seu sistema de rack completo de próxima geração, baseado na arquitetura Ultra "Vera Rubin", entregará 14 vezes o desempenho do atual rack Blackwell Ultra. Estamos falando de algo entre 14 e 15 exaflops em trabalho otimizado para IA nos próximos um ou dois anos.
Não se trata apenas de potência bruta. Comprimir esse desempenho em um único rack significa menos espaço físico, menos materiais e, potencialmente, menor consumo de energia por operação. Embora não possamos esquecer que as demandas absolutas de energia desses sistemas ainda são enormes.
A IA Realmente Precisa de Todo Esse Poder Computacional?
Embora esses ganhos de desempenho sejam impressionantes, a indústria de IA agora enfrenta uma grande questão: Quanto poder de computação realmente precisamos, e a que custo? A corrida para construir novos data centers massivos de IA é impulsionada pelas demandas da computação em escala exa e por modelos de IA cada vez mais capazes.
O projeto mais ambicioso é o Projeto Stargate, de US$ 500 bilhões, que planeja 20 data centers nos EUA, cada um com meio milhão de pés quadrados. Há uma onda de outros projetos de hiperescala em andamento ou planejados ao redor do mundo, à medida que empresas e países correm para construir a infraestrutura para futuras cargas de trabalho de IA.
Alguns analistas estão preocupados que possamos estar construindo demais. As preocupações cresceram após o lançamento do R Sede DeepSeek da China, um modelo de raciocínio que usa significativamente menos computação que seus pares. O recente cancelamento de contratos de locação da Microsoft com vários provedores de data centers alimentou especulações de que eles podem estar repensando suas necessidades de infraestrutura de IA.
No entanto, The Register sugeriu que essa redução pode estar mais relacionada aos data centers planejados não conseguirem atender às necessidades de energia e resfriamento dos sistemas de IA de próxima geração. Os modelos de IA já estão testando os limites da infraestrutura atual. A MIT Technology Review relatou que muitos data centers na China estão enfrentando dificuldades e falhando porque foram construídos com especificações desatualizadas.
A Inferência de IA Demanda Mais FLOPs
Modelos de raciocínio fazem a maior parte de seu trabalho pesado em tempo de execução por meio de um processo chamado inferência. Esses modelos alimentam algumas das aplicações mais avançadas e intensivas em recursos, como assistentes de pesquisa profunda e a onda emergente de sistemas de IA agentivos.
Embora o DeepSeek-R1 inicialmente tenha levado a indústria a pensar que a IA futura poderia precisar de menos poder computacional, o CEO da Nvidia, Jensen Huang, rebateu fortemente. Em uma entrevista à CNBC, ele argumentou o contrário: "Foi exatamente a conclusão oposta que todos tiveram." Ele acrescentou que a IA de raciocínio consome 100 vezes mais computação do que a IA não raciocinante.
À medida que a IA evolui de modelos de raciocínio para agentes autônomos e além, a demanda por poder computacional provavelmente aumentará novamente. Os próximos avanços podem vir em áreas como coordenação de agentes de IA, simulações de fusão ou gêmeos digitais em grande escala — todos possibilitados pelo tipo de salto computacional que acabamos de ver.
Quase como se fosse uma deixa, a OpenAI anunciou US$ 40 bilhões em novos financiamentos, a maior rodada de financiamento de tecnologia privada registrada. Em um post de blog, eles disseram que o financiamento "nos permite avançar ainda mais as fronteiras da pesquisa em IA, escalar nossa infraestrutura de computação e entregar ferramentas cada vez mais poderosas para os 500 milhões de pessoas que usam o ChatGPT toda semana."
Por que tanto capital está fluindo para a IA? As razões variam de competitividade a segurança nacional, mas um fator se destaca: a IA poderia aumentar os lucros corporativos em US$ 4,4 trilhões por ano, segundo a McKinsey.
O Que Vem a Seguir? É Difícil Adivinhar
No fundo, os sistemas de informação são sobre simplificar a complexidade, seja um sistema de roteamento de veículos de emergência que escrevi em Fortran, uma ferramenta de relatórios de desempenho estudantil construída em COBOL, ou sistemas modernos de IA acelerando a descoberta de medicamentos. O objetivo sempre foi o mesmo: dar sentido ao mundo.
Agora, com uma IA poderosa no horizonte, estamos cruzando um limiar. Pela primeira vez, podemos ter o poder computacional e a inteligência para enfrentar problemas que antes estavam fora do alcance humano.
O colunista do New York Times, Kevin Roose, capturou bem esse momento: "Toda semana, encontro engenheiros e empreendedores trabalhando em IA que me dizem que a mudança — grande mudança, mudança que abala o mundo, o tipo de transformação que nunca vimos antes — está logo ali na esquina." E isso sem contar os avanços que chegam a cada semana.
Nos últimos dias, vimos o GPT-4o da OpenAI gerar imagens quase perfeitas a partir de texto, o Google lançar o que pode ser o modelo de raciocínio mais avançado até agora com o Gemini 2.5 Pro, e a Runway revelar um modelo de vídeo com consistência de personagem e cena de cena a cena, algo que a VentureBeat observa que escapou à maioria dos geradores de vídeo de IA até agora.
O que vem a seguir é realmente difícil de adivinhar. Não sabemos se a IA poderosa será um avanço ou um colapso, se ajudará a resolver a energia de fusão ou desencadeará novos riscos biológicos. Mas com cada vez mais FLOPS entrando em operação nos próximos cinco anos, uma coisa parece certa: a inovação virá rápido — e com força. À medida que os FLOPS escalam, também devem escalar nossas conversas sobre responsabilidade, regulação e contenção.
Gary Grossman é EVP da prática de tecnologia na Edelman e líder global do Centro de Excelência em IA da Edelman.



Mind blown! An exaflop in a single rack? Nvidia's pushing AI into hyperspace. Can't wait to see what crazy applications come next. 🚀




Mind blown by this exaflop server rack! Nvidia's pushing AI compute to insane levels. Can't wait to see what crazy applications come out of this power. 🚀












