Uso de energia do ChatGPT mais baixo do que o esperado
ChatGPT, o chatbot da OpenAI, pode não ser o grande consumidor de energia que pensávamos. Mas, seu uso de energia pode variar muito dependendo de como é utilizado e quais modelos de IA estão respondendo às perguntas, de acordo com um novo estudo.
Epoch AI, um grupo de pesquisa sem fins lucrativos, tentou descobrir quanta energia uma consulta típica do ChatGPT consome. Você pode ter ouvido que o ChatGPT precisa de cerca de 3 watt-horas para responder a uma única pergunta, o que é 10 vezes mais que uma pesquisa no Google. Mas a Epoch acha que isso é um pouco exagerado.
Usando o modelo padrão mais recente da OpenAI, GPT-4o, como referência, a Epoch descobriu que a consulta média do ChatGPT usa cerca de 0,3 watt-horas. Isso é menos do que muitos eletrodomésticos precisam.
"O uso de energia realmente não é grande coisa comparado ao uso de eletrodomésticos comuns ou aquecimento ou resfriamento da sua casa, ou dirigir um carro," disse Joshua You, o analista de dados da Epoch que fez a análise, ao TechCrunch.
O uso de energia da IA, e seu impacto no meio ambiente, é um tema quente, já que as empresas de IA estão buscando expandir seus data centers de forma agressiva. Na última semana, mais de 100 organizações assinaram uma carta aberta pedindo à indústria de IA e aos reguladores que garantam que os novos data centers de IA não esgotem os recursos naturais e forcem as concessionárias a dependerem de fontes de energia não renováveis.
You disse ao TechCrunch que sua análise foi motivada pelo que ele considerou pesquisas desatualizadas. Ele apontou que o relatório que estimou 3 watt-horas por consulta presumia que a OpenAI estava usando chips mais antigos e menos eficientes para rodar seus modelos.

Créditos da imagem: Epoch AI "Eu vi muito discurso público que corretamente reconheceu que a IA consumiria muita energia nos próximos anos, mas não descreveu com precisão a energia que está sendo usada pela IA hoje," disse You. "Além disso, alguns dos meus colegas notaram que a estimativa mais amplamente reportada de 3 watt-horas por consulta era baseada em pesquisas bastante antigas, e com base em cálculos simples parecia ser muito alta."
Claro, a estimativa de 0,3 watt-horas da Epoch também é apenas uma estimativa. A OpenAI não compartilhou os detalhes necessários para fazer um cálculo preciso.
A análise também não leva em conta os custos extras de energia de recursos do ChatGPT, como geração de imagens ou processamento de entradas longas. You admitiu que consultas do ChatGPT com "entradas longas" — como aquelas com arquivos extensos anexados — provavelmente usam mais eletricidade de imediato do que uma pergunta típica.
You disse que espera que o consumo de energia base do ChatGPT aumente, no entanto.
"A IA ficará mais avançada, treinar essa IA provavelmente exigirá muito mais energia, e essa IA futura pode ser usada de forma muito mais intensa — lidando com muito mais tarefas, e tarefas mais complexas, do que como as pessoas usam o ChatGPT hoje," disse You.
Embora tenha havido alguns avanços interessantes na eficiência da IA ultimamente, espera-se que a escala em que a IA está sendo usada impulsione um enorme crescimento de infraestrutura faminta por energia. Nos próximos dois anos, os data centers de IA podem precisar de quase toda a capacidade de energia da Califórnia em 2022 (68 GW), segundo um relatório da Rand. Até 2030, treinar um modelo de ponta pode precisar de energia equivalente a oito reatores nucleares (8 GW), previu o relatório.
O ChatGPT sozinho alcança muitas pessoas, e esse número só está crescendo, o que significa que suas demandas por servidores são enormes. A OpenAI, junto com vários parceiros de investimento, planeja gastar bilhões em novos projetos de data centers de IA nos próximos anos.
O foco da OpenAI, junto com o resto da indústria de IA, está mudando para modelos de raciocínio. Esses modelos podem realizar mais tarefas, mas precisam de mais poder computacional para funcionar. Diferentemente de modelos como GPT-4o, que respondem às consultas quase instantaneamente, os modelos de raciocínio "pensam" por segundos a minutos antes de responder, o que consome mais poder computacional — e, portanto, mais energia.
"Modelos de raciocínio assumirão cada vez mais tarefas que modelos mais antigos não conseguem, e gerarão mais [dados] para isso, e ambos exigem mais data centers," disse You.
A OpenAI começou a lançar modelos de raciocínio mais eficientes em termos de energia, como o o3-mini. Mas parece improvável, pelo menos por enquanto, que esses ganhos de eficiência compensem as demandas de energia aumentadas do processo de "pensamento" dos modelos de raciocínio e do uso crescente de IA em todo o mundo.
You sugeriu que, se você está preocupado com sua pegada energética de IA, deve usar aplicativos como o ChatGPT com menos frequência, ou escolher modelos que usem menos poder computacional — se isso for possível.
"Você poderia tentar usar modelos de IA menores, como o GPT-4o-mini da OpenAI," disse You, "e usá-los com moderação, de uma maneira que exija processar ou gerar muitos dados."
Artigo relacionado
OpenAI Apresenta Dois Modelos Avançados de IA de Peso Aberto
A OpenAI anunciou na terça-feira o lançamento de dois modelos de raciocínio de IA de peso aberto, com capacidades comparáveis à sua série o. Ambos os modelos estão disponíveis para download gratuito n
ByteDance Revela o Modelo de IA Seed-Thinking-v1.5 para Impulsionar Capacidades de Raciocínio
A corrida por IA com raciocínio avançado começou com o modelo o1 da OpenAI em setembro de 2024, ganhando impulso com o lançamento do R1 da DeepSeek em janeiro de 2025.Os principais desenvolvedores de
Investimento de US$ 40 bilhões da Oracle em chips Nvidia impulsiona centro de dados de IA no Texas
A Oracle planeja investir aproximadamente US$ 40 bilhões em chips Nvidia para alimentar um grande novo centro de dados no Texas, desenvolvido pela OpenAI, conforme relatado pelo Financial Times. Este
Comentários (32)
0/200
PaulHill
16 de Agosto de 2025 à59 04:00:59 WEST
Wow, ChatGPT’s energy use is lower than I thought! Still, it’s wild how much it varies by model and usage. Makes me wonder how sustainable scaling up AI will be in the long run. 🤔
0
WillPerez
15 de Agosto de 2025 à0 00:01:00 WEST
Surprising to see ChatGPT's energy use isn't as bad as hyped! Still, makes me wonder how much power those massive AI models really burn through when we’re all chatting away. 🤔
0
CharlesRoberts
24 de Abril de 2025 à19 09:09:19 WEST
A energia usada pelo ChatGPT é surpreendentemente baixa! Pensei que fosse um devorador de energia, mas não é tão ruim assim. Ainda assim, é louco como pode variar muito dependendo do modelo e do uso. Faz você pensar no futuro da IA, né? 🤔 Continuem o bom trabalho, OpenAI!
0
JasonHarris
19 de Abril de 2025 à39 12:13:39 WEST
ChatGPT's energy use is surprisingly low! I was expecting it to be a power hog, but it's not that bad. Still, it's wild how much it can change depending on the model and usage. Makes you think about the future of AI, right? 🤔 Keep up the good work, OpenAI!
0
AlbertRoberts
16 de Abril de 2025 à59 09:28:59 WEST
ChatGPT's energy use being lower than expected is great news! But it's still wild how it varies so much. Makes you think about the future of AI and energy efficiency. Keep up the good work, OpenAI! 🔋💡
0
JimmyJohnson
16 de Abril de 2025 à30 03:49:30 WEST
A notícia de que o uso de energia do ChatGPT é menor do que o esperado é ótima! Mas é louco como varia tanto. Faz você pensar sobre o futuro da IA e a eficiência energética. Continue o bom trabalho, OpenAI! 🔋💡
0
ChatGPT, o chatbot da OpenAI, pode não ser o grande consumidor de energia que pensávamos. Mas, seu uso de energia pode variar muito dependendo de como é utilizado e quais modelos de IA estão respondendo às perguntas, de acordo com um novo estudo.
Epoch AI, um grupo de pesquisa sem fins lucrativos, tentou descobrir quanta energia uma consulta típica do ChatGPT consome. Você pode ter ouvido que o ChatGPT precisa de cerca de 3 watt-horas para responder a uma única pergunta, o que é 10 vezes mais que uma pesquisa no Google. Mas a Epoch acha que isso é um pouco exagerado.
Usando o modelo padrão mais recente da OpenAI, GPT-4o, como referência, a Epoch descobriu que a consulta média do ChatGPT usa cerca de 0,3 watt-horas. Isso é menos do que muitos eletrodomésticos precisam.
"O uso de energia realmente não é grande coisa comparado ao uso de eletrodomésticos comuns ou aquecimento ou resfriamento da sua casa, ou dirigir um carro," disse Joshua You, o analista de dados da Epoch que fez a análise, ao TechCrunch.
O uso de energia da IA, e seu impacto no meio ambiente, é um tema quente, já que as empresas de IA estão buscando expandir seus data centers de forma agressiva. Na última semana, mais de 100 organizações assinaram uma carta aberta pedindo à indústria de IA e aos reguladores que garantam que os novos data centers de IA não esgotem os recursos naturais e forcem as concessionárias a dependerem de fontes de energia não renováveis.
You disse ao TechCrunch que sua análise foi motivada pelo que ele considerou pesquisas desatualizadas. Ele apontou que o relatório que estimou 3 watt-horas por consulta presumia que a OpenAI estava usando chips mais antigos e menos eficientes para rodar seus modelos.
"Eu vi muito discurso público que corretamente reconheceu que a IA consumiria muita energia nos próximos anos, mas não descreveu com precisão a energia que está sendo usada pela IA hoje," disse You. "Além disso, alguns dos meus colegas notaram que a estimativa mais amplamente reportada de 3 watt-horas por consulta era baseada em pesquisas bastante antigas, e com base em cálculos simples parecia ser muito alta."
Claro, a estimativa de 0,3 watt-horas da Epoch também é apenas uma estimativa. A OpenAI não compartilhou os detalhes necessários para fazer um cálculo preciso.
A análise também não leva em conta os custos extras de energia de recursos do ChatGPT, como geração de imagens ou processamento de entradas longas. You admitiu que consultas do ChatGPT com "entradas longas" — como aquelas com arquivos extensos anexados — provavelmente usam mais eletricidade de imediato do que uma pergunta típica.
You disse que espera que o consumo de energia base do ChatGPT aumente, no entanto.
"A IA ficará mais avançada, treinar essa IA provavelmente exigirá muito mais energia, e essa IA futura pode ser usada de forma muito mais intensa — lidando com muito mais tarefas, e tarefas mais complexas, do que como as pessoas usam o ChatGPT hoje," disse You.
Embora tenha havido alguns avanços interessantes na eficiência da IA ultimamente, espera-se que a escala em que a IA está sendo usada impulsione um enorme crescimento de infraestrutura faminta por energia. Nos próximos dois anos, os data centers de IA podem precisar de quase toda a capacidade de energia da Califórnia em 2022 (68 GW), segundo um relatório da Rand. Até 2030, treinar um modelo de ponta pode precisar de energia equivalente a oito reatores nucleares (8 GW), previu o relatório.
O ChatGPT sozinho alcança muitas pessoas, e esse número só está crescendo, o que significa que suas demandas por servidores são enormes. A OpenAI, junto com vários parceiros de investimento, planeja gastar bilhões em novos projetos de data centers de IA nos próximos anos.
O foco da OpenAI, junto com o resto da indústria de IA, está mudando para modelos de raciocínio. Esses modelos podem realizar mais tarefas, mas precisam de mais poder computacional para funcionar. Diferentemente de modelos como GPT-4o, que respondem às consultas quase instantaneamente, os modelos de raciocínio "pensam" por segundos a minutos antes de responder, o que consome mais poder computacional — e, portanto, mais energia.
"Modelos de raciocínio assumirão cada vez mais tarefas que modelos mais antigos não conseguem, e gerarão mais [dados] para isso, e ambos exigem mais data centers," disse You.
A OpenAI começou a lançar modelos de raciocínio mais eficientes em termos de energia, como o o3-mini. Mas parece improvável, pelo menos por enquanto, que esses ganhos de eficiência compensem as demandas de energia aumentadas do processo de "pensamento" dos modelos de raciocínio e do uso crescente de IA em todo o mundo.
You sugeriu que, se você está preocupado com sua pegada energética de IA, deve usar aplicativos como o ChatGPT com menos frequência, ou escolher modelos que usem menos poder computacional — se isso for possível.
"Você poderia tentar usar modelos de IA menores, como o GPT-4o-mini da OpenAI," disse You, "e usá-los com moderação, de uma maneira que exija processar ou gerar muitos dados."



Wow, ChatGPT’s energy use is lower than I thought! Still, it’s wild how much it varies by model and usage. Makes me wonder how sustainable scaling up AI will be in the long run. 🤔




Surprising to see ChatGPT's energy use isn't as bad as hyped! Still, makes me wonder how much power those massive AI models really burn through when we’re all chatting away. 🤔




A energia usada pelo ChatGPT é surpreendentemente baixa! Pensei que fosse um devorador de energia, mas não é tão ruim assim. Ainda assim, é louco como pode variar muito dependendo do modelo e do uso. Faz você pensar no futuro da IA, né? 🤔 Continuem o bom trabalho, OpenAI!




ChatGPT's energy use is surprisingly low! I was expecting it to be a power hog, but it's not that bad. Still, it's wild how much it can change depending on the model and usage. Makes you think about the future of AI, right? 🤔 Keep up the good work, OpenAI!




ChatGPT's energy use being lower than expected is great news! But it's still wild how it varies so much. Makes you think about the future of AI and energy efficiency. Keep up the good work, OpenAI! 🔋💡




A notícia de que o uso de energia do ChatGPT é menor do que o esperado é ótima! Mas é louco como varia tanto. Faz você pensar sobre o futuro da IA e a eficiência energética. Continue o bom trabalho, OpenAI! 🔋💡












