option
Maison
Nouvelles
La consommation d'énergie de Chatgpt est plus faible que prévu

La consommation d'énergie de Chatgpt est plus faible que prévu

10 avril 2025
236

ChatGPT, le chatbot d'OpenAI, n'est peut-être pas aussi énergivore qu'on le pensait. Mais sa consommation d'énergie varie beaucoup selon son utilisation et les modèles d'IA qui répondent aux questions, selon une nouvelle étude.

Epoch AI, un groupe de recherche à but non lucratif, a tenté de calculer la consommation d'une requête typique de ChatGPT. On a peut-être entendu que ChatGPT consomme environ 3 watt-heures pour répondre à une question, soit 10 fois plus qu'une recherche Google. Mais Epoch pense que c'est exagéré.

En utilisant le dernier modèle par défaut d'OpenAI, GPT-4o, comme référence, Epoch a constaté qu'une requête moyenne de ChatGPT consomme environ 0,3 watt-heure. C'est moins que ce que nécessitent de nombreux appareils ménagers.

« La consommation d'énergie n'est vraiment pas un gros problème comparé à l'utilisation d'appareils normaux, au chauffage ou à la climatisation de votre maison, ou à la conduite d'une voiture », a déclaré Joshua You, l'analyste de données chez Epoch qui a réalisé l'analyse, à TechCrunch.

La consommation d'énergie de l'IA et son impact sur l'environnement sont des sujets brûlants alors que les entreprises d'IA cherchent à agrandir leurs centres de données de manière exponentielle. La semaine dernière, plus de 100 organisations ont signé une lettre ouverte exhortant l'industrie de l'IA et les régulateurs à s'assurer que les nouveaux centres de données d'IA ne drainent pas les ressources naturelles et ne forcent pas les services publics à dépendre de sources d'énergie non renouvelables.

You a déclaré à TechCrunch que son analyse a été motivée par ce qu'il considérait comme des recherches obsolètes. Il a souligné que le rapport estimant 3 watt-heures supposait qu'OpenAI utilisait des puces plus anciennes et moins efficaces pour exécuter ses modèles.

Consommation d'énergie de ChatGPT par Epoch AI

Crédits image : Epoch AI

« J'ai vu beaucoup de discussions publiques qui reconnaissaient correctement que l'IA consommera beaucoup d'énergie dans les années à venir, mais qui ne décrivaient pas précisément l'énergie utilisée par l'IA aujourd'hui », a déclaré You. « De plus, certains de mes collègues ont remarqué que l'estimation la plus répandue de 3 watt-heures par requête était basée sur des recherches assez anciennes et semblait trop élevée d'après quelques calculs approximatifs. »

Bien sûr, l'estimation d'Epoch de 0,3 watt-heure n'est qu'une approximation. OpenAI n'a pas partagé les détails nécessaires pour un calcul précis.

L'analyse ne prend pas non plus en compte les coûts énergétiques supplémentaires des fonctionnalités de ChatGPT comme la génération d'images ou le traitement de longues entrées. You a admis que les requêtes ChatGPT avec de « longues entrées » — comme celles avec de longs fichiers joints — consomment probablement plus d'électricité au départ qu'une question typique.

You a indiqué qu'il s'attend cependant à ce que la consommation d'énergie de base de ChatGPT augmente.

« L'IA deviendra plus avancée, entraîner cette IA nécessitera probablement beaucoup plus d'énergie, et cette IA future pourrait être utilisée beaucoup plus intensément — en gérant beaucoup plus de tâches, et des tâches plus complexes, que la manière dont les gens utilisent ChatGPT aujourd'hui », a déclaré You.

Bien qu'il y ait eu récemment des avancées intéressantes en matière d'efficacité de l'IA, l'ampleur de l'utilisation de l'IA devrait entraîner une croissance massive d'infrastructures énergivores. Dans les deux prochaines années, les centres de données d'IA pourraient nécessiter presque toute la capacité énergétique de la Californie en 2022 (68 GW), selon un rapport Rand. D'ici 2030, entraîner un modèle de pointe pourrait nécessiter une puissance équivalente à huit réacteurs nucléaires (8 GW), selon le rapport.

ChatGPT atteint à lui seul un grand nombre de personnes, et ce nombre ne fait qu'augmenter, ce qui signifie que ses besoins en serveurs sont énormes. OpenAI, avec plusieurs partenaires d'investissement, prévoit de dépenser des milliards pour de nouveaux projets de centres de données d'IA au cours des prochaines années.

L'accent d'OpenAI, comme celui du reste de l'industrie de l'IA, se porte sur les modèles de raisonnement. Ces modèles peuvent effectuer plus de tâches mais nécessitent plus de puissance de calcul pour fonctionner. Contrairement aux modèles comme GPT-4o, qui répondent presque instantanément, les modèles de raisonnement « réfléchissent » pendant quelques secondes à quelques minutes avant de répondre, ce qui consomme plus de puissance de calcul — et donc plus d'énergie.

« Les modèles de raisonnement prendront de plus en plus en charge des tâches que les anciens modèles ne peuvent pas faire, et généreront plus de [données] pour ce faire, et les deux nécessitent plus de centres de données », a déclaré You.

OpenAI a commencé à lancer des modèles de raisonnement plus économes en énergie comme o3-mini. Mais il semble peu probable, du moins pour l'instant, que ces gains d'efficacité compensent les demandes énergétiques accrues du processus de « réflexion » des modèles de raisonnement et de l'utilisation croissante de l'IA dans le monde.

You a suggéré que si vous êtes préoccupé par votre empreinte énergétique liée à l'IA, vous devriez utiliser des applications comme ChatGPT moins souvent, ou choisir des modèles qui consomment moins de puissance de calcul — si cela est possible.

« Vous pourriez essayer d'utiliser des modèles d'IA plus petits comme [OpenAI's] GPT-4o-mini », a déclaré You, « et les utiliser avec parcimonie de manière à nécessiter le traitement ou la génération d'un grand volume de données. »

Article connexe
OpenAI Dévoile Deux Modèles d'IA Open-Weight Avancés OpenAI Dévoile Deux Modèles d'IA Open-Weight Avancés OpenAI a révélé mardi la sortie de deux modèles de raisonnement IA open-weight, offrant des capacités comparables à sa série o. Les deux modèles sont disponibles en téléchargement gratuit sur Hugging
ByteDance Dévoile le Modèle d'IA Seed-Thinking-v1.5 pour Améliorer les Capacités de Raisonnement ByteDance Dévoile le Modèle d'IA Seed-Thinking-v1.5 pour Améliorer les Capacités de Raisonnement La course à l'IA avancée en raisonnement a commencé avec le modèle o1 d'OpenAI en septembre 2024, gagnant en élan avec le lancement de R1 par DeepSeek en janvier 2025.Les principaux développeurs d'IA
Investissement de 40 milliards de dollars d'Oracle dans les puces Nvidia pour renforcer le centre de données IA au Texas Investissement de 40 milliards de dollars d'Oracle dans les puces Nvidia pour renforcer le centre de données IA au Texas Oracle prévoit d'investir environ 40 milliards de dollars dans des puces Nvidia pour alimenter un nouveau centre de données majeur au Texas, développé par OpenAI, selon le Financial Times. Cette trans
commentaires (32)
0/200
PaulHill
PaulHill 16 août 2025 05:00:59 UTC+02:00

Wow, ChatGPT’s energy use is lower than I thought! Still, it’s wild how much it varies by model and usage. Makes me wonder how sustainable scaling up AI will be in the long run. 🤔

WillPerez
WillPerez 15 août 2025 01:01:00 UTC+02:00

Surprising to see ChatGPT's energy use isn't as bad as hyped! Still, makes me wonder how much power those massive AI models really burn through when we’re all chatting away. 🤔

CharlesRoberts
CharlesRoberts 24 avril 2025 10:09:19 UTC+02:00

A energia usada pelo ChatGPT é surpreendentemente baixa! Pensei que fosse um devorador de energia, mas não é tão ruim assim. Ainda assim, é louco como pode variar muito dependendo do modelo e do uso. Faz você pensar no futuro da IA, né? 🤔 Continuem o bom trabalho, OpenAI!

JasonHarris
JasonHarris 19 avril 2025 13:13:39 UTC+02:00

ChatGPT's energy use is surprisingly low! I was expecting it to be a power hog, but it's not that bad. Still, it's wild how much it can change depending on the model and usage. Makes you think about the future of AI, right? 🤔 Keep up the good work, OpenAI!

AlbertRoberts
AlbertRoberts 16 avril 2025 10:28:59 UTC+02:00

ChatGPT's energy use being lower than expected is great news! But it's still wild how it varies so much. Makes you think about the future of AI and energy efficiency. Keep up the good work, OpenAI! 🔋💡

JimmyJohnson
JimmyJohnson 16 avril 2025 04:49:30 UTC+02:00

A notícia de que o uso de energia do ChatGPT é menor do que o esperado é ótima! Mas é louco como varia tanto. Faz você pensar sobre o futuro da IA e a eficiência energética. Continue o bom trabalho, OpenAI! 🔋💡

Retour en haut
OR