Connexion
Abonnez-vous

La consommation des data centers devrait doubler d’ici 2030

nrj

La consommation des data centers devrait doubler d’ici 2030

Crédits : Matthew Henry, Unsplash

L'Agence internationale de l'énergie (IEA) prévoit que la consommation d'électricité des data centers dans le monde double d'ici 2030. L'organisation rappelle pour autant que les data centers représentaient environ 1,5 % de la consommation mondiale d'électricité en 2024. De son côté, le co-fondateur de Google, Eric Schmidt évoque une demande d'énergie de cette industrie qui va passer de 3 % à 99 % de la production totale.

Le 11 avril à 09h47

Dans son rapport qu'elle vient tout juste de publier, l'Agence internationale de l'énergie (IEA) rappelle que les data centers « représentaient environ 1,5 % de la consommation mondiale d'électricité en 2024, soit 415 térawattheures (TWh) ». L'utilisation de la climatisation dans le monde est un problème encore plus important, par exemple.

La consommation des data centers pour l'IA multipliée par 4

Elle prévoit que, « dans le scénario de référence, la consommation d'électricité des data centers atteindra environ 945 TWh d'ici 2030, soit plus du double par rapport au niveau de 2024 ». Comme l'explique le Guardian, l'IEA estime que « l'IA est le principal moteur de cette croissance » puisque l'énergie des seuls data centers dédiés à l'IA devrait plus que quadrupler.

Actuellement, explique l'IEA dans son rapport, « un data center orienté IA consomme autant d'électricité que 100 000 ménages, mais les plus grands qui sont en construction aujourd'hui consommeront 20 fois plus ».

« L'efficacité matérielle et logicielle des modèles d'IA s'améliore rapidement », explique l'agence. « En conditions de test », elle estime que « l'interrogation d'un modèle d'IA nécessite actuellement environ 2 wattheures pour la génération de langage, au moins le double pour les grands modèles de raisonnement comme DeepSeek-R1, et environ 25 fois plus pour la génération d'une courte vidéo ».

L'agence reconnait que « la mise en œuvre dans le monde réel peut être plus efficace » mais elle déplore le manque de transparence des industriels du secteur : « le manque de données sur la consommation d'énergie des modèles commerciaux empêche l'évaluation ».

Il reste 57% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Abonnez-vous

Commentaires (19)

votre avatar
Les propos d'Eric Schmidt sont quand même ahurissants...
En qualité de quoi ce monsieur a t-il été auditionné ? Sa fiche Wikipedia ne semble pas indiquer qu'il exerce encore des responsabilités chez Alphabet.
votre avatar
Pour être précis, le président de la commission a présenté Eric Schmidt en tant que docteur (ie : qui a une thèse, pas médecin ;) ) et auteur de son dernier livre titré"Genesis: Artificial Intelligence, Hope, and the Human Spirit" et co-signé avec Kissinger (livre publié aux États-Unis un an après la mort de ce dernier).

Edit : le livre est aussi co-signé par Craig Mundie.
votre avatar
Et pendant ce temps, la terre brûle... :reflechis:
votre avatar
la demande d'énergie de notre industrie passera de 3 % à 99 % de la production totale
Au début, j'ai cru à une erreur...
Ils sont sérieux ? Ils vont faire quoi, couper l'électricité aux gens pour alimenter leurs datacenters ? 😱
votre avatar
Y'a qu'à produire 2 fois plus d'énergie, et par tous les moyens possibles d'après ce qu'il dit. Facile.
votre avatar
Ça va être beau s'ils poussent à ce que des centrales nucléaires soient construites "au plus vite" plutôt que "au plus sécurisé"...
votre avatar
Oui.
C'est comme les tarrés qui veulent utiliser du biocarburant pour faire voler tout les avions. il faut TOUTE l'agriculture mondiale pour ça. Du coup on bouffe plus.
(il faut TOUTE l'agriculture mondiale aussi pour faire pareil avec les bagnole et en gros autant pour les camions et encore autant pour la marine marchande... va falloir se serrer la ceinture).

Bon en fait soyons honnêtes, il veulent juste perpétuer la pompe à fric (à capital risque) un peu plus longtemps avant que ça s'écroule. Quand ça s'écroulera ils iront voir les états en demandant de renflouer les caisses. Comme les banques y a un peu plus de 15 ans. Comme les compagnies aériennes tout les 15-20 ans, etc...
votre avatar
Moi aussi j'ai cru à une erreur, j'ai faillit la signaler en pensant que c'était du 9% en réalité. :ooo:
Heureusement j'ai attendu de finir de lire l'article avant de réagir.
votre avatar
« Lorsque l'homme aura coupé le dernier arbre, pollué la dernière goutte d'eau, tué le dernier animal et pêché le dernier poisson, alors il se rendra compte que l'argent n'est pas comestible. »
votre avatar
Aux USA Musk est accusé d'avoir mis en production trop de générateurs (35 turbines à gaz au lieu de 15 autorisés) pour alimenter son IA Grok.

https://www-theguardian-com.translate.goog/us-news/2025/apr/09/elon-musk-xai-memphis?_x_tr_sl=en&_x_tr_tl=fr&_x_tr_hl=fr&_x_tr_pto=wapp
votre avatar
J'ai une petite question pour les éventuels connaisseurs : est-il plus efficace énergétiquement de déplacer les calculs d'inférence au niveau du device final, ou au niveau des datacenters ?
En gros, pour 1000000 promptes, il est plus efficace de les exécuter en local ou dans le cloud ? L'intérêt du local, c'est qu'on n'a pas besoin de refroidir autant, mais c'est probablement moins efficace que du matériel spécialisé.
votre avatar
Y'a deux éléments à prendre en compte sur l'usage de l'IA : l'entraînement et l'utilisation.

L'entraînement, ça se fait une fois, et c'est fini, au sens où le modèle une fois produit est fonctionnel et n'a plus besoin d'être entraîné. Il peut être augmenté par d'autres moyens, mais c'est tout. Il n'apprendra plus, en gros.
L'entraînement, ça coûte très cher en calcul, donc en énergie.

L'utilisation : ta question est pertinente et on a des propositions chez certains acteurs, comme Apple qui fait tourner son Apple Intelligence en local (et on voit que c'est pas top). Le souci, c'est que ça n'est valable que pour des petits modèles de 2 ou 3 milliards de paramètres qui traiteront le prompt et produiront la réponse rapidement.
Si les appareils peuvent faire tourner des modèles plus gros (perso je fais tourner Mistral Small 3.1, 21 milliards de params, sur un PC équipé d'un Ryzen 7 et 32GB de RAM, pas de GPU), le temps d'exécution devient insupportable. Sur la même machine, pour te donner un exemple, Llama 3.2 avec 8 milliards de param met environ une ou deux minutes à traiter un prompt. Mistral Small met dix minutes.
Un modèle de 3 milliards de params travaille plus vite (quasi temps réel entre l'input et l'output), mais il sera rapidement limité.

Pour pouvoir avoir la même latence que les modèles hébergés dans le Cloud qui ont le cul assis sur douze mille GPU, il faut une config adaptée (type gamer haut de gamme si on reste dans de l'équipement grand public), et donc là aussi de la conso d'énergie et du refroidissement (évidemment moins intense qu'un data center).

Même si les puces dédiées à l'accélération des traitements par réseau de neurones artificiels se développent, on est encore loin de pouvoir faire tourner un modèle décent en local avec une latence supportable.
votre avatar
OK, mais justement, si on a une config' suffisante pour faire tourner un "gros" modèle, ou pour tous les cas où un "gros" modèle est overkill, est-ce que, strictement du point de vue énergétique, il ne serait pas préférable d'avoir les calculs de l'utilisation côté client plutôt que côté serveur ?

Merci en tous cas pour ta réponse et le rappel entre l'entraînement et l'utilisation (que j'ai appelée inférence).
votre avatar
Pour des cas simples et rapide, un petit modèle tournera sur du hardware de smartphone haut de gamme. Je pense que ça reste plus efficient qu'un gros hébergé en data center qui est chargé en mémoire sur une armée de GPU, surtout à cause du nombre élevé de sollicitations en raison de la centralisation.

Là où un modèle appelé une fois tous les 36 du mois sur le device de l'utilisateur ne consommera rien s'il ne tourne pas.

Pour les gros modèles, ça ne tournera pas sur un terminal mobile (qui reste, je pense, la cible numéro 1) et sur un PC il faut une grosse config. Donc réservé à un public limité. Même si c'est potentiellement plus efficient (j'avoue j'en sais rien), ça n'est clairement pas un cas d'usage standard.
votre avatar
On se focalise beaucoup sur la conso électrique (déjà préoccupante à mon sens) mais finalement assez peu sur la conso gargantuesque des data centers en eau pour leur refroidissement.
votre avatar
Oui, et j'ai aussi du mal à comprendre que cette chaleur soit considérée uniquement comme un déchet.

Il y a quand même moyen d'en faire quelque chose non ?
Je sais que Infomaniak s'en sert dans au moins un de ses datacenter pour chauffer les habitations des allentours. Ce point pourrait déjà être développé ( chauffage des bureaux en zone industrielle).
Mais cette chaleur pourrait bien servir à quelque chose d'autre non ?
Chauffer des serres agricoles dans un environnement non urbain par exemple.
Ou autre chose que la fonction chauffage pure
votre avatar
En effet, ça s'appelle la cogénération, principe appliqué aux centrales nucléaires par exemple (mais pas à toutes, loin de là malheureusement...)
votre avatar
Ouais mais OSEF de la conso d'énergie ! Laissez-nous faites des starter packs et des images à la Ghibli, c'est trop kawai, lol !!!
votre avatar
Quand on dit que les US sont un pays riche qui gaspille ses ressources... Vive les moteurs essence à 4L pour rouler à 120km/h max.

A part ça, en cherchant rapidement, rien compris à ce qu'a dit Éric Schmidt.

Puissance Électrique US: ~ 1160 GW (d'après Wiki)

Dans un article du site Futurism :

il mentionne : " an additional 29 gigawatts by 2027 and 67 more gigawatts by 2030," he asserted"

C'est peanuts !

Et sinon en France, la puissance électrique max c'est grosso modo 92 GW l'hiver quand ça pèle un max mais plutôt sur du 70-75GW en moyenne.

Donc les US ont une capacité électrique x12 fois plus que la France.

Hors le rapport de population n'est que de 340/68 = 5

donc les Américains consomment plus du double d'électricité qu'un Français...

Et aux US, 40% de l'électricité est produit à partir de... gaz... même si c'est le pays qui possède le plus de réacteurs nucléaires au monde (104 vs 56 en France) mais c'est très très loin de leurs suffire...

Une catastrophe donc en émission de CO2!! Eux et la Chine qui tourne principalement au charbon... ( plusieurs centaines d'années de réserve dans les sous-sols chinois...)

Les 1ers pollueurs au monde... et de très très loin !

:cartonrouge:

La consommation des data centers devrait doubler d’ici 2030

  • La consommation des data centers pour l'IA multipliée par 4

  • Des espoirs d'optimisation dans énormément de secteurs grâce à l'IA

  • Pour Eric Schmidt, une demande d'énergie qui passera de 3 % à 99 % de la production totale

Fermer