L’intelligence artificielle traverse une révolution technologique majeure. Cette avancée s’accompagne cependant d’un coût énergétique vertigineux qui interpelle les experts du monde entier. La sortie récente de ChatGPT-5 par OpenAI illustre parfaitement cette problématique : selon une étude menée par des chercheurs de l’université de Rhode Island, ce nouveau modèle d’IA consommerait jusqu’à 20 fois plus d’électricité que son prédécesseur GPT-4, représentant l’équivalent de la demande annuelle de 3 millions de foyers français.
Cette estimation saisissante provient de travaux scientifiques rigoureux publiés dans l’étude « How Hungry is AI? » réalisée conjointement par les universités de Rhode Island aux États-Unis et de Tunis. Les chercheurs ont analysé l’usage énergétique de différents modèles d’intelligence artificielle et leurs conclusions révèlent une escalade préoccupante des besoins électriques.
Une multiplication par 20 des besoins énergétiques
Les chiffres révélés par cette recherche académique sont particulièrement éloquents. Là où une requête adressée à ChatGPT-3 nécessitait environ 3 wattheures (Wh) d’électricité, une question similaire posée à ChatGPT-5 peut désormais exiger entre 18 et 40 Wh selon la complexité de la réponse demandée.
Pour mettre ces données en perspective, une réponse détaillée d’environ 1 000 mots générée par ChatGPT-5 demande autant d’électricité qu’une ampoule LED de 10 watts allumée pendant près de deux heures. Cette comparaison, bien que parlante, ne rend pas compte de l’ampleur du phénomène à l’échelle mondiale.
L’étude révèle également des variations importantes selon le mode d’utilisation du modèle. En version « haute performance », ChatGPT-5 exige en moyenne 19,32 Wh pour une requête de taille moyenne, contre seulement 1,80 Wh pour GPT-4o, soit une multiplication par plus de 10.
Un impact environnemental à l’échelle d’un pays
Avec 2,5 milliards de requêtes quotidiennes traitées par l’écosystème ChatGPT selon les dernières estimations, l’impact énergétique devient colossal. Les projections annuelles établies par les chercheurs font état d’une demande de 7 832 GWh, équivalant effectivement à l’usage électrique de 1,6 million de foyers français, soit environ 3 millions de personnes.
Cette dépense énergétique massive s’explique par plusieurs facteurs techniques. Premièrement, ChatGPT-5 est un modèle considérablement plus volumineux que ses prédécesseurs. Bien qu’OpenAI refuse de communiquer le nombre exact de paramètres depuis GPT-3 et ses 175 milliards de paramètres, les experts estiment que GPT-5 pourrait être plusieurs fois plus grand que GPT-4, lui-même dix fois plus volumineux que GPT-3.
Cette augmentation de taille s’accompagne d’une complexification des tâches que peut accomplir le modèle. ChatGPT-5 intègre des capacités de raisonnement avancées, peut traiter simultanément du texte, des images et des vidéos, et dispose d’un mode de réflexion prolongée qui multiplie le temps de calcul avant de fournir une réponse. Selon Shaolei Ren, professeur à l’université de Californie Riverside, ce mode de raisonnement peut multiplier par 5 à 10 la demande énergétique par rapport à une réponse standard. (Source : https://www.theguardian.com/technology/2025/aug/09/open-ai-chat-gpt5-energy-use)
L’eau, l’autre ressource sacrifiée
Au-delà de la dépense électrique, l’impact environnemental de ChatGPT-5 s’étend à l’usage d’eau nécessaire au refroidissement des serveurs. L’étude de l’université de Rhode Island estime qu’une requête textuelle de taille moyenne nécessite entre 20 et 50 ml d’eau. À l’échelle quotidienne, cela représente environ 62,5 millions de litres d’eau évaporés chaque jour pour maintenir les serveurs à température optimale.
Cette dépense hydrique est souvent négligée dans les débats sur l’impact environnemental du numérique. Elle équivaut pourtant aux besoins annuels de près de 500 000 personnes selon les standards français. Cette donnée souligne la dimension multifacette de l'empreinte environnementale des intelligences artificielles génératives.
Un manque de transparence préoccupant
L’un des aspects les plus troublants révélés par cette recherche concerne l’opacité maintenue par OpenAI et ses concurrents sur l’impact environnemental réel de leurs modèles. Contrairement aux premières années de développement, où les entreprises communiquaient régulièrement sur les performances énergétiques de leurs systèmes, la plupart des géants technologiques cessaient de publier ces données dès 2020.
Cette absence de transparence contraste fortement avec les pratiques d’entreprises européennes comme Mistral AI, qui a publié en collaboration avec l’Ademe une méthodologie complète d’évaluation de l'empreinte environnementale de ses modèles. Cette étude française révèle que 85,5% des besoins électriques et 91% de l’usage d’eau de l’activité d’IA générative sont concentrés dans les phases d’entraînement et d’inférence.
Les chercheurs appellent donc à « une transparence totale » de la part d’OpenAI et des autres développeurs, estimant qu’il est « plus crucial que jamais d’aborder le véritable coût environnemental de l’IA ». Cette demande s’inscrit dans un contexte où les décideurs politiques et les usagers manquent d’informations fiables pour évaluer l’impact de leurs pratiques numériques.
Une escalade énergétique mondiale
Le cas de ChatGPT-5 s’inscrit dans une tendance plus large d’explosion des besoins énergétiques liés à l’intelligence artificielle. Selon l’Agence internationale de l’énergie (AIE), la demande électrique mondiale des centres de données devrait plus que doubler d’ici 2030, passant d’environ 415 TWh en 2024 à près de 945 TWh, soit l’équivalent de la demande actuelle du Japon.
En France, les centres de données représentent déjà environ 10 TWh d’usage annuel, soit 2% de la demande électrique nationale. Cette part pourrait considérablement augmenter avec l’arrivée de nouveaux centres spécialisés dans l’intelligence artificielle. RTE, le gestionnaire du réseau électrique français, estime que si l’ensemble des demandes de raccordement actuelles aboutissent, les besoins des centres de données pourraient atteindre 80 TWh par an.
Cette projection inquiète les experts qui y voient un risque de tension sur le réseau électrique français. Un seul centre de données de 100 MW peut exiger autant d’énergie qu’une ville de 100 000 habitants, et les nouveaux projets liés à l’IA prévoient des installations bien plus importantes.
Des solutions émergentes mais insuffisantes
Face à cette escalade énergétique, l’industrie technologique développe plusieurs stratégies pour réduire l’impact environnemental de l’intelligence artificielle. Les constructeurs investissent massivement dans des puces plus efficaces, comme les processeurs H100 et H200 de Nvidia, qui offrent de meilleures performances par watt utilisé.
Les techniques de refroidissement évoluent également, avec un abandon progressif de la climatisation traditionnelle au profit de systèmes de refroidissement liquide plus efficaces. Certains centres de données expérimentent même l’utilisation de l’eau de mer ou l’implantation dans des régions froides pour réduire les besoins en refroidissement artificiel.
Du côté algorithmique, les chercheurs travaillent sur des techniques de compression des modèles et d’optimisation des architectures. L’approche « mixture-of-experts » utilisée par GPT-5 permet par exemple de n’activer qu’une partie des paramètres du modèle selon le type de requête, réduisant ainsi la demande énergétique par rapport à une activation complète.
L’Unesco a récemment publié des recommandations montrant que de simples adaptations peuvent réduire de 90% la dépense énergétique des grands modèles de langage. Des requêtes et des réponses plus courtes peuvent diminuer de plus de 50% les besoins électriques, tandis que la compression des modèles offre des gains substantiels sans perte significative de performance.
L’urgence d’une prise de conscience collective
Cette situation paradoxale nécessite une réflexion approfondie : les outils censés résoudre les défis climatiques contribuent eux-mêmes au problème. Sam Altman, PDG d’OpenAI, a d’ailleurs lui-même reconnu cette problématique en demandant récemment aux utilisateurs d’être moins polis avec ChatGPT, d’éviter les « bonjour » et « merci » qui génèrent des réponses consommatrices d’énergie sans valeur ajoutée.
Cette demande, qui peut sembler anecdotique, révèle en réalité l’ampleur du défi énergétique auquel fait face l’industrie de l’IA. Chaque interaction, même la plus brève, a désormais un coût environnemental mesurable qui s’accumule à l’échelle planétaire.
L’enjeu dépasse largement le cadre technologique pour devenir une question de société. Comment concilier les promesses de l’intelligence artificielle avec les impératifs de la transition énergétique ? Faut-il réguler l’usage de ces technologies ou faire confiance aux mécanismes de marché pour orienter le développement vers des solutions plus sobres ?
Vers une intelligence artificielle durable
La France tente de se positionner sur ce marché en tension en misant sur son mix énergétique décarboné. Emmanuel Macron a récemment vanté les avantages de l’électricité française pour attirer les investisseurs dans les centres de données, avec ce slogan : « Just plug, baby, plug ! L’électricité est disponible ». EDF a lancé plusieurs appels à manifestation d’intérêt pour proposer des terrains adaptés aux centres de données, notamment en Moselle et en Seine-et-Marne.
Cette stratégie française mise sur l’énergie nucléaire pour offrir une alternative moins carbonée aux centres de données américains alimentés en grande partie par des énergies fossiles. Cependant, même avec un mix énergétique décarboné, la question de la sobriété énergétique reste entière face à l’explosion des besoins.
L’avenir de l’intelligence artificielle se joue donc aussi sur sa capacité à concilier performance et durabilité. Les prochaines années seront cruciales pour déterminer si l’industrie saura développer des modèles plus efficaces ou si la course à la puissance continuera au détriment de l’environnement.
L’émergence de ChatGPT-5 et sa dépense énergétique record marquent peut-être un tournant dans la prise de conscience collective de l’impact environnemental du numérique. Face à l’urgence climatique, la question n’est plus seulement de savoir ce que l’intelligence artificielle peut faire pour nous, mais aussi ce que nous sommes prêts à sacrifier pour elle.

