La consommation des data centers devrait doubler d’ici 2030
nrj

Crédits : Matthew Henry, Unsplash
L'Agence internationale de l'énergie (IEA) prévoit que la consommation d'électricité des data centers dans le monde double d'ici 2030. L'organisation rappelle pour autant que les data centers représentaient environ 1,5 % de la consommation mondiale d'électricité en 2024. De son côté, le co-fondateur de Google, Eric Schmidt évoque une demande d'énergie de cette industrie qui va passer de 3 % à 99 % de la production totale.
Le 11 avril à 09h47
5 min
IA et algorithmes
IA
Dans son rapport qu'elle vient tout juste de publier, l'Agence internationale de l'énergie (IEA) rappelle que les data centers « représentaient environ 1,5 % de la consommation mondiale d'électricité en 2024, soit 415 térawattheures (TWh) ». L'utilisation de la climatisation dans le monde est un problème encore plus important, par exemple.
La consommation des data centers pour l'IA multipliée par 4
Elle prévoit que, « dans le scénario de référence, la consommation d'électricité des data centers atteindra environ 945 TWh d'ici 2030, soit plus du double par rapport au niveau de 2024 ». Comme l'explique le Guardian, l'IEA estime que « l'IA est le principal moteur de cette croissance » puisque l'énergie des seuls data centers dédiés à l'IA devrait plus que quadrupler.
Actuellement, explique l'IEA dans son rapport, « un data center orienté IA consomme autant d'électricité que 100 000 ménages, mais les plus grands qui sont en construction aujourd'hui consommeront 20 fois plus ».
« L'efficacité matérielle et logicielle des modèles d'IA s'améliore rapidement », explique l'agence. « En conditions de test », elle estime que « l'interrogation d'un modèle d'IA nécessite actuellement environ 2 wattheures pour la génération de langage, au moins le double pour les grands modèles de raisonnement comme DeepSeek-R1, et environ 25 fois plus pour la génération d'une courte vidéo ».
L'agence reconnait que « la mise en œuvre dans le monde réel peut être plus efficace » mais elle déplore le manque de transparence des industriels du secteur : « le manque de données sur la consommation d'énergie des modèles commerciaux empêche l'évaluation ».
Il reste 57% de l'article à découvrir.
Déjà abonné ? Se connecter

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLa consommation des data centers devrait doubler d’ici 2030
-
La consommation des data centers pour l'IA multipliée par 4
-
Des espoirs d'optimisation dans énormément de secteurs grâce à l'IA
-
Pour Eric Schmidt, une demande d'énergie qui passera de 3 % à 99 % de la production totale
Commentaires (19)
Le 11/04/2025 à 10h54
En qualité de quoi ce monsieur a t-il été auditionné ? Sa fiche Wikipedia ne semble pas indiquer qu'il exerce encore des responsabilités chez Alphabet.
Modifié le 11/04/2025 à 14h52
Edit : le livre est aussi co-signé par Craig Mundie.
Le 11/04/2025 à 11h27
Modifié le 11/04/2025 à 11h49
Ils sont sérieux ? Ils vont faire quoi, couper l'électricité aux gens pour alimenter leurs datacenters ? 😱
Le 11/04/2025 à 11h59
Le 11/04/2025 à 14h22
Le 11/04/2025 à 13h37
C'est comme les tarrés qui veulent utiliser du biocarburant pour faire voler tout les avions. il faut TOUTE l'agriculture mondiale pour ça. Du coup on bouffe plus.
(il faut TOUTE l'agriculture mondiale aussi pour faire pareil avec les bagnole et en gros autant pour les camions et encore autant pour la marine marchande... va falloir se serrer la ceinture).
Bon en fait soyons honnêtes, il veulent juste perpétuer la pompe à fric (à capital risque) un peu plus longtemps avant que ça s'écroule. Quand ça s'écroulera ils iront voir les états en demandant de renflouer les caisses. Comme les banques y a un peu plus de 15 ans. Comme les compagnies aériennes tout les 15-20 ans, etc...
Le 11/04/2025 à 13h53
Heureusement j'ai attendu de finir de lire l'article avant de réagir.
Le 11/04/2025 à 20h23
Le 11/04/2025 à 13h58
https://www-theguardian-com.translate.goog/us-news/2025/apr/09/elon-musk-xai-memphis?_x_tr_sl=en&_x_tr_tl=fr&_x_tr_hl=fr&_x_tr_pto=wapp
Le 11/04/2025 à 14h25
En gros, pour 1000000 promptes, il est plus efficace de les exécuter en local ou dans le cloud ? L'intérêt du local, c'est qu'on n'a pas besoin de refroidir autant, mais c'est probablement moins efficace que du matériel spécialisé.
Le 12/04/2025 à 13h10
L'entraînement, ça se fait une fois, et c'est fini, au sens où le modèle une fois produit est fonctionnel et n'a plus besoin d'être entraîné. Il peut être augmenté par d'autres moyens, mais c'est tout. Il n'apprendra plus, en gros.
L'entraînement, ça coûte très cher en calcul, donc en énergie.
L'utilisation : ta question est pertinente et on a des propositions chez certains acteurs, comme Apple qui fait tourner son Apple Intelligence en local (et on voit que c'est pas top). Le souci, c'est que ça n'est valable que pour des petits modèles de 2 ou 3 milliards de paramètres qui traiteront le prompt et produiront la réponse rapidement.
Si les appareils peuvent faire tourner des modèles plus gros (perso je fais tourner Mistral Small 3.1, 21 milliards de params, sur un PC équipé d'un Ryzen 7 et 32GB de RAM, pas de GPU), le temps d'exécution devient insupportable. Sur la même machine, pour te donner un exemple, Llama 3.2 avec 8 milliards de param met environ une ou deux minutes à traiter un prompt. Mistral Small met dix minutes.
Un modèle de 3 milliards de params travaille plus vite (quasi temps réel entre l'input et l'output), mais il sera rapidement limité.
Pour pouvoir avoir la même latence que les modèles hébergés dans le Cloud qui ont le cul assis sur douze mille GPU, il faut une config adaptée (type gamer haut de gamme si on reste dans de l'équipement grand public), et donc là aussi de la conso d'énergie et du refroidissement (évidemment moins intense qu'un data center).
Même si les puces dédiées à l'accélération des traitements par réseau de neurones artificiels se développent, on est encore loin de pouvoir faire tourner un modèle décent en local avec une latence supportable.
Le 14/04/2025 à 15h07
Merci en tous cas pour ta réponse et le rappel entre l'entraînement et l'utilisation (que j'ai appelée inférence).
Modifié le 14/04/2025 à 18h55
Là où un modèle appelé une fois tous les 36 du mois sur le device de l'utilisateur ne consommera rien s'il ne tourne pas.
Pour les gros modèles, ça ne tournera pas sur un terminal mobile (qui reste, je pense, la cible numéro 1) et sur un PC il faut une grosse config. Donc réservé à un public limité. Même si c'est potentiellement plus efficient (j'avoue j'en sais rien), ça n'est clairement pas un cas d'usage standard.
Le 11/04/2025 à 14h52
Le 12/04/2025 à 15h42
Il y a quand même moyen d'en faire quelque chose non ?
Je sais que Infomaniak s'en sert dans au moins un de ses datacenter pour chauffer les habitations des allentours. Ce point pourrait déjà être développé ( chauffage des bureaux en zone industrielle).
Mais cette chaleur pourrait bien servir à quelque chose d'autre non ?
Chauffer des serres agricoles dans un environnement non urbain par exemple.
Ou autre chose que la fonction chauffage pure
Modifié le 12/04/2025 à 18h37
Le 11/04/2025 à 20h22
Modifié le 12/04/2025 à 23h45
A part ça, en cherchant rapidement, rien compris à ce qu'a dit Éric Schmidt.
Puissance Électrique US: ~ 1160 GW (d'après Wiki)
Dans un article du site Futurism :
il mentionne : " an additional 29 gigawatts by 2027 and 67 more gigawatts by 2030," he asserted"
C'est peanuts !
Et sinon en France, la puissance électrique max c'est grosso modo 92 GW l'hiver quand ça pèle un max mais plutôt sur du 70-75GW en moyenne.
Donc les US ont une capacité électrique x12 fois plus que la France.
Hors le rapport de population n'est que de 340/68 = 5
donc les Américains consomment plus du double d'électricité qu'un Français...
Et aux US, 40% de l'électricité est produit à partir de... gaz... même si c'est le pays qui possède le plus de réacteurs nucléaires au monde (104 vs 56 en France) mais c'est très très loin de leurs suffire...
Une catastrophe donc en émission de CO2!! Eux et la Chine qui tourne principalement au charbon... ( plusieurs centaines d'années de réserve dans les sous-sols chinois...)
Les 1ers pollueurs au monde... et de très très loin !