Accueil / Chroniques / IA générative : la consommation énergétique explose
AI chip glows with blue energy and power, futuristic processor of artificial intelligence radiates light and lightning. Concept of computer technology, circuit board, cpu, data
π Énergie π Science et technologies

IA générative : la consommation énergétique explose

Anne-Laure Ligozat
Anne-Laure Ligozat
professeure en informatique à l'ENSIIE et au LISN
anonyme
Alex De Vries
doctorant à la School of Business and Economics à l'Université d'Amsterdam
En bref
  • La consommation énergétique de l’intelligence artificielle explose avec l’engouement pour l’IA générative, bien que les données fournies par les entreprises manquent.
  • Les interactions avec des IA comme ChatGPT pourraient consommer 10 fois plus d’électricité qu’une recherche Google classique, d’après l’Agence internationale de l’énergie.
  • En 2026, la hausse de la consommation électrique des centres de données, des cryptomonnaies et de l’IA pourrait s’élever à l’équivalent de la consommation électrique de la Suède ou de l’Allemagne, par rapport à 2022.
  • L’empreinte carbone de l’IA est loin d’être négligeable, ainsi, des scientifiques estiment que l'entraînement du modèle d'IA BLOOM émet 10 fois plus de gaz à effet de serre qu’un Français en une année.
  • Il semble complexe de réduire la consommation énergétique de l’IA, rendant essentielle la promotion de sa sobriété pour l’avenir.

L’intelligence arti­fi­cielle (IA) s’est immis­cée dans de très nom­breux sec­teurs : médi­cal, numé­rique, bâti­ments, mobi­li­té… Défi­nie comme la « capa­ci­té d’un ordi­na­teur à auto­ma­ti­ser une tâche qui néces­si­te­rait nor­ma­le­ment le dis­cer­ne­ment humain1 », l’intelligence arti­fi­cielle a un coût : son déploie­ment mas­sif engendre des besoins crois­sants en éner­gie. Les tâches infor­ma­tiques néces­saires à la mise en œuvre de l’IA requièrent l’usage de ter­mi­naux uti­li­sa­teurs (ordi­na­teurs, télé­phones, etc.) et sur­tout de centres de don­nées. On en recense actuel­le­ment plus de 8 000 à tra­vers le monde, dont 33 % se situent aux États-Unis, 16 % en Europe et près de 10 % en Chine d’après l’Agence inter­na­tio­nale de l’énergie2 (AIE). Les centres de don­nées, les cryp­to­mon­naies et l’intelligence arti­fi­cielle repré­sentent presque 2 % de la consom­ma­tion élec­trique mon­diale en 2022, soit une consom­ma­tion élec­trique de 460 TWh. En com­pa­rai­son, la consom­ma­tion élec­trique fran­çaise s’est éle­vée à 445 TWh en 20233.

La consommation d’électricité de l’IA : un manque de données ?

Quelle part de cette consom­ma­tion élec­trique est réel­le­ment dédiée à l’IA ? « Nous ne le savons pas exac­te­ment, répond Alex de Vries. Dans un cas idéal, nous uti­li­se­rions les don­nées four­nies par les entre­prises qui uti­lisent l’IA, notam­ment les GAFAM qui sont res­pon­sables d’une large part de la demande. » En 2022, Google four­nit pour la pre­mière fois des infor­ma­tions sur le sujet4 : « Le pour­cen­tage [d’énergie uti­li­sée] pour l’apprentissage auto­ma­tique s’est main­te­nu au cours des trois der­nières années, repré­sen­tant moins de 15 % de la consom­ma­tion totale d’énergie de Google. » Pour­tant, dans son der­nier rap­port envi­ron­ne­men­tal5, l’entreprise ne four­nit aucune don­née pré­cise sur l’intelligence arti­fi­cielle. Seule la consom­ma­tion totale d’électricité de ses centres de don­nées est indi­quée : 24 TWh en 2023 (contre 18,3 TWh en 2021).

Faute de don­nées four­nies par les entre­prises, la com­mu­nau­té scien­ti­fique tente d’estimer la consom­ma­tion élec­trique de l’IA depuis quelques années. En 2019, un pre­mier article6 jette un pavé dans la mare : « Le déve­lop­pe­ment et l’entrainement de nou­veaux modèles d’IA sont coû­teux, tant sur le plan finan­cier […] qu’environnemental, en rai­son de l’empreinte car­bone liée à l’alimentation des équi­pe­ments. » L’équipe estime que l’empreinte car­bone de l’entrainement total pour une tâche don­née de BERT, un modèle de lan­gage déve­lop­pé par Google, équi­vaut envi­ron à celle d’un vol trans­at­lan­tique. Quelques années plus tard, les scien­ti­fiques de Google jugent que ces esti­ma­tions sur­es­timent de 100 à 1 000 fois l’empreinte car­bone réelle. De son côté, Alex de Vries a choi­si de s’appuyer sur les ventes d’équipements dédiés à l’IA7. La socié­té NVIDIA domine le mar­ché des ser­veurs dédiés à l’IA – elle repré­sente 95 % des ventes. En se basant sur les ventes et la consom­ma­tion des ser­veurs, Alex de Vries pro­je­tait une consom­ma­tion élec­trique attei­gnant 5,7 à 8,9 TWh en 2023, un chiffre faible au regard de la consom­ma­tion mon­diale des centres de don­nées (460 TWh).

Les tâches exa­mi­nées dans notre étude et la quan­ti­té moyenne d’é­mis­sions de car­bone qu’elles pro­duisent (en g de 𝐶𝑂2𝑒𝑞) pour 1 000 requêtes. N.B. L’axe des y est en échelle loga­rith­mique8.

La révolution de l’IA générative

Mais ces chiffres pour­raient explo­ser. Alex de Vries estime qu’en 2027, si les capa­ci­tés de pro­duc­tion cor­res­pondent aux pro­messes des firmes, les ser­veurs NVIDIA dédiés à l’IA pour­raient consom­mer 85 à 134 TWh d’électricité chaque année. En cause : l’explosion de l’utilisation de l’IA géné­ra­tive. ChatGPT, Bing Chat, Dall‑E, etc. : ces intel­li­gences arti­fi­cielles géné­rant du texte, des images ou encore des conver­sa­tions ont péné­tré le sec­teur à une vitesse record. Or ces IA néces­sitent beau­coup de res­sources de cal­cul et sont donc très consom­ma­trices en élec­tri­ci­té. Les inter­ac­tions avec des IA comme ChatGPT pour­raient consom­mer 10 fois plus d’électricité qu’une recherche Google clas­sique d’après l’AIE. Ain­si, si toutes les recherches Google – 9 mil­liards chaque jour – s’appuyaient sur ChatGPT, 10 TWh d’électricité sup­plé­men­taires seraient consom­més chaque année. Alex De Vries estime la hausse à 29,3 TWh par an, autant que la consom­ma­tion élec­trique de l’Irlande. « La hausse conti­nue de la consom­ma­tion éner­gé­tique, et donc de l’empreinte car­bone de l’intelligence arti­fi­cielle est un phé­no­mène très bien connu, com­mente Anne-Laure Ligo­zat. Les modèles d’IA sont de plus en plus com­plexes : plus ils com­portent de para­mètres, plus les équi­pe­ments tournent long­temps. Et comme les machines sont de plus en plus puis­santes, cela pousse à faire des modèles de plus en plus com­plexes... » L’Agence inter­na­tio­nale de l’énergie estime pour sa part qu’en 2026, la hausse de la consom­ma­tion élec­trique des centres de don­nées, des cryp­to­mon­naies et de l’IA pour­rait s’élever entre 160 et 590 TWh par rap­port à 2022. Soit l’équivalent de la consom­ma­tion élec­trique de la Suède (esti­ma­tion basse) ou de l’Allemagne (esti­ma­tion haute).

Esti­ma­tion de la demande d’élec­tri­ci­té des centres de don­nées tra­di­tion­nels, des centres de don­nées dédiés à l’IA et des cryp­to-mon­naies, 2022 et 2026 (scé­na­rio de réfé­rence)9. Remarque : la demande d’élec­tri­ci­té des centres de don­nées exclut la consom­ma­tion des centres de réseaux de données.

Les besoins en cal­cul de l’IA s’expliquent par dif­fé­rentes phases. Le déve­lop­pe­ment d’une IA passe par une pre­mière phase d’apprentissage sur des bases de don­nées, c’est la phase d’entrainement. Une fois le modèle prêt, il peut être uti­li­sé sur de nou­velles don­nées : c’est la phase d’inférence10. La phase d’entrainement a foca­li­sé l’attention des scien­ti­fiques pen­dant long­temps, étant la plus consom­ma­trice en éner­gie. Mais les nou­veaux modèles d’IA ont chan­gé la donne, comme en témoigne Alex de Vries : « Avec l’adoption mas­sive des modèles d’IA comme ChatGPT, tout s’est inver­sé et la phase d’inférence est deve­nue pré­pon­dé­rante. » Les récentes don­nées four­nies par Meta et Google indiquent qu’elle repré­sente de 60 à 70 % de la consom­ma­tion éner­gé­tique, contre 20 à 40 % pour l’entrainement11.

La neutralité carbone :  mission impossible pour l’IA ?

Alors que la consom­ma­tion éner­gé­tique de l’IA est enta­chée d’incertitudes, esti­mer son empreinte car­bone relève du défi pour la com­mu­nau­té scien­ti­fique. « Nous sommes en mesure d’évaluer l’empreinte liée à la consom­ma­tion dyna­mique de l’entrainement, celle liée à la fabri­ca­tion des équi­pe­ments infor­ma­tiques, mais il reste com­pli­qué d’évaluer l’empreinte totale liée à l’utilisation. Nous ne connais­sons pas le nombre pré­cis d’utilisations, ni la part d’utilisation dédiée à l’IA sur les ter­mi­naux employés par les uti­li­sa­teurs, sou­ligne Anne-Laure Ligo­zat. Pour­tant, des col­lègues viennent de mettre en évi­dence que l’empreinte car­bone des ter­mi­naux uti­li­sa­teurs n’est pas négli­geable : elle est de l’ordre de 25 à 45 % de l’empreinte car­bone totale de cer­tains modèles d’IA. » Anne-Laure Ligo­zat et son équipe estiment que l’entrainement du modèle d’IA BLOOM – un modèle en accès libre – émet de l’ordre de 50 tonnes de gaz à effet de serre, soit 10 fois plus que les émis­sions annuelles d’un Fran­çais. Dès lors, dif­fi­cile pour les géants de la tech d’atteindre leurs objec­tifs de neu­tra­li­té car­bone, mal­gré les nom­breuses mesures de com­pen­sa­tion prises. Google recon­nait dans son der­nier rap­port envi­ron­ne­men­tal : « En com­pa­rai­son avec 2022, nos émis­sions […][de 2023] ont aug­men­té de 37 % mal­gré les efforts consi­dé­rables et les pro­grès concer­nant les éner­gies renou­ve­lables. Cela s’explique par la consom­ma­tion d’électricité de nos centres de don­nées, qui dépasse notre capa­ci­té à déve­lop­per des pro­jets d’énergie renou­ve­lables. »

Limi­ter le réchauf­fe­ment cli­ma­tique implique une réduc­tion dras­tique des émis­sions mon­diales de gaz à effet de serre. L’IA se trouve-t-elle dans une impasse ? « Aucun argu­ment avan­cé par Google pour réduire les émis­sions de l’IA ne tient la route, déplore Anne-Laure Ligo­zat. L’amélioration des équi­pe­ments impose d’en fabri­quer de nou­veaux, émet­tant ain­si des GES. L’optimisation des infra­struc­tures – comme le refroi­dis­se­ment à l’eau des centres de don­nées – déplace le pro­blème sur la res­source en eau. Et la délo­ca­li­sa­tion des centres de don­nées vers des pays avec un mix élec­trique bas car­bone néces­site d’être en mesure de gérer la demande élec­trique sup­plé­men­taire… » Quant à l’optimisation des modèles, si elle réduit effec­ti­ve­ment leur consom­ma­tion, elle pousse à une uti­li­sa­tion accrue… le fameux effet rebond. « Cela tend à annu­ler les éco­no­mies d’énergie pos­sibles, conclut Alex de Vries. Je plaide prin­ci­pa­le­ment pour la sobrié­té des usages de l’IA. »

Anaïs Marechal
1Stuart J. Rus­sell, Peter Nor­vig, and Ernest Davis. Arti­fi­cial intel­li­gence : a modern approach. Pren­tice Hall series in arti­fi­cial intel­li­gence. Pren­tice Hall Upper Saddle River, New Jer­sey, third edi­tion edi­tion, 2010.
2IEA (2024), Elec­tri­ci­ty 2024, IEA, Paris https://​www​.iea​.org/​r​e​p​o​r​t​s​/​e​l​e​c​t​r​i​c​i​t​y​-2024, Licence : CC BY 4.0
3Site inter­net consul­té le 26 sep­tembre 2024 : https://​ana​ly​se​set​don​nees​.rte​-france​.com/​b​i​l​a​n​-​e​l​e​c​t​r​i​q​u​e​-​2​0​2​3​/​c​o​n​s​o​m​m​a​t​i​o​n​#​C​o​n​s​o​m​m​a​t​i​o​n​c​o​r​rigee
4D. Pat­ter­son et al., « The Car­bon Foot­print of Machine Lear­ning Trai­ning Will Pla­teau, Then Shrink, » in Com­pu­ter, vol. 55, no. 7, pp. 18–28, July 2022, doi : 10.1109/MC.2022.3148714.
5Google, 2024, Envi­ron­men­tal report
6Stru­bell et al. (2019) Ener­gy and poli­cy consi­de­ra­tions for deep lear­ning in NLP, arXiv.
7De Vries, The gro­wing ener­gy foot­print of arti­fi­cial intel­li­gence, Joule (2023), https://​doi​.org/​1​0​.​1016/ j.joule.2023.09.004
8Source du pre­mier gra­phique : ACM Confe­rence on Fair­ness, Accoun­ta­bi­li­ty, and Trans­pa­ren­cy (ACM FAccT ’24), June 3–6, 2024, Rio de Janei­ro, Bra­zil
9Source du second gra­phique : Pré­vi­sions de l’AIE basées sur les don­nées et les pro­jec­tions des Data centres and Data Trans­mis­sion Net­works ; Joule (2023) – Alex de Vries, The gro­wing ener­gy foot­print of arti­fi­cial intel­li­gence ; Cryp­to Car­bon Ratings Ins­ti­tute, Indices ; Irlande – Cen­tral Sta­tis­tics Office, Data Centres Mete­red Elec­tri­ci­ty Consump­tion 2022 ; et Agence danoise de l’éner­gie, Den­mark’s Ener­gy and Cli­mate Out­look 2018
10Adrien Ber­the­lot, Eddy Caron, Mathilde Jay, Laurent Lefèvre, Esti­ma­ting the envi­ron­men­tal impact of Gene­ra­tive-AI ser­vices using an LCA-based metho­do­lo­gy, Pro­ce­dia CIRP, Volume 122, 2024, Pages 707–712, ISSN 2212–8271
11Site inter­net consul­té le 25/09/2024 : https://​www​.iea​.org/​e​n​e​r​g​y​-​s​y​s​t​e​m​/​b​u​i​l​d​i​n​g​s​/​d​a​t​a​-​c​e​n​t​r​e​s​-​a​n​d​-​d​a​t​a​-​t​r​a​n​s​m​i​s​s​i​o​n​-​n​e​t​works

👋 Nous avons besoin de votre avis ! Prenez quelques minutes pour répondre à notre enquête de lectorat

Je participe à l'enquête