Google lâche des infos sur l’impact environnemental de Gemini, pas les plus pertinentes
Transparence : 0,1 %
Illustration : Flock
Le 22 août 2025 à 16h47
Pour une fois, un des géants de l’IA générative communique sur l’impact environnemental de ses modèles. Mais cette communication n’aidera pas à comprendre réellement cet impact, tellement Google donne peu d’informations pertinentes sur les conséquences globales de Gemini sur l’environnement.
Google lâche des infos sur l’impact environnemental de Gemini, pas les plus pertinentes
Transparence : 0,1 %
Illustration : Flock
Pour une fois, un des géants de l’IA générative communique sur l’impact environnemental de ses modèles. Mais cette communication n’aidera pas à comprendre réellement cet impact, tellement Google donne peu d’informations pertinentes sur les conséquences globales de Gemini sur l’environnement.
Le 22 août 2025 à 16h47
IA et algorithmes
IA
6 min
Google cherche à jouer la transparence au sujet de l’impact environnemental de Gemini en diffusant des chiffres sur la part la moins consommatrice des IA générative, à savoir la consommation médiane d’une requête sur leurs applications IA Gemini.
Selon les chercheurs de l’entreprise, la consommation médiane d’une requête sur leurs applications IA Gemini pour générer du texte serait de 0,24Wh, ce qui correspondrait à l’équivalent de 0,03 g d’émission de CO₂. Ils s’empressent de préciser que c’est « un chiffre nettement inférieur à de nombreuses estimations publiques » et que c’est moins que « regarder neuf secondes de télévision ». Ils ajoutent que cette même requête consommerait « cinq gouttes d’eau (0,26 ml) ».
Des efforts de sobriété importants sur un an selon les chercheurs de Google
L’entreprise a publié ce jeudi 21 aout un billet de blog ainsi que ce qu’elle appelle un « papier technique » [PDF] qui reprend tous les codes de présentation de l’édition d’un article scientifique sans pour autant être publié dans une revue scientifique ni même mis en ligne sur un serveur de prépublication comme arXiv (tiers qui ont des protocoles pour assurer le suivi d’éventuelles modifications, ainsi qu’une pérennité de la mise en ligne).
Selon ces travaux internes, la consommation lors d’une requête texte de ce type proviendrait principalement des TPU utilisé par les serveurs de Google, 0,14 Wh, soit 58 % des 0,24Wh. 0,06 Wh, soit (25 %) seraient dépensés par le processeur et la mémoire vive de l’appareil de l’utilisateur. Le reste viendrait des machines en veille et de la consommation autre des serveurs (chacun contribuant à hauteur de 0,02 Wh). Ces estimations sont inférieures à celles des études précédentes.
Ils affirment que les efforts de leur entreprise ont permis « de réduire de 33 fois la consommation d’énergie et de 44 fois l’empreinte carbone pour la requête textuelle médiane de Gemini Apps sur une période d’un an ».
Une transparence très faible
Si Google donne un peu plus d’informations qu’avant, cette transparence n’est qu’apparente. Elle l’est en tout cas moins que l’exercice auquel s’est livré Mistral le mois dernier qui, sans publier d’article scientifique, a travaillé avec deux organismes tiers (l’agence Carbone 4 et l’ADEME) pour évaluer l’impact entier de son modèle Large 2, de la conception à l’utilisation.
Mistral s’est aussi engagé à partager les résultats sur la base de données « Base Empreinte » de l’ADEME dans le but d’établir « une nouvelle norme de référence pour la transparence dans le secteur de l’IA ». Ici, Google ne partage des chiffres que sur l’utilisation, connue pour être la partie la moins consommatrice, et ne s’engage pas à suivre les pas de Mistral. Google ne parle dans son « papier » que de la consommation médiane d’une requête sur leurs applications IA Gemini sans jamais préciser sur quel modèle l’étude a été faite, un manque de transparence criant.
Pourtant, le « papier technique » des chercheurs de Google s’appuie sur un article scientifique mis en ligne en juin dernier sur la plateforme de preprints arXiv par Sasha Luccioni de Hugging Face, avec Boris Gamazaychikov de Salesforce, Theo Alves da Costa de Ekimetrics et Emma Strubel de l’Université Carnegie Mellon, qui y déploraient une « désinformation par omission » sur le sujet.
Ainsi, les chercheurs de Google admettent que « l’absence de consensus sur les activités consommatrices d’énergie à inclure dans la mesure (ce qu’on appelle la limite de mesure) a conduit à la publication d’estimations pour des tâches d’IA similaires qui varient d’un ordre de grandeur important. L’absence de méthodologies convenues a peut-être contribué au manque de données de première main au moment où elles sont le plus nécessaires ». Mais les informations qu’ils partagent dans ce « papier » ne semblent pas être en mesure de rassasier leurs collègues.
« Comme laisser les fabricants de tabac définir le narratif sur les effets du tabagisme passif »
La chercheuse de l’Université de Washington, Emily Bender, explique sur Bluesky que « c’est bien que nous ayons ces chiffres, mais nous avons besoin et méritons bien plus encore ». La co-autrice du fameux article sur les perroquets stochastiques ajoute :
« En particulier, il ne suffit pas de connaître la consommation d’électricité, d’eau et les émissions de CO2 associées à une seule requête médiane. Quelles sont les consommations totales ? Comment évoluent-elles au fil du temps ? Quel est le coût total de toutes les « AI overviews » non sollicitées pour une journée donnée ? ».
Et elle finit en affirmant que « laisser Google définir le narratif sur les coûts environnementaux de l’ « IA », c’est comme laisser les fabricants de tabac définir le narratif sur les effets du tabagisme passif en mesurant les effets sur la santé d’une personne exposée à la fumée d’une cigarette fumée par un voisin ».
Comparaison de choux et de carottes
Ainsi, les chercheurs Alex de Vries-Gao et Shaolei Ren, cités dans le papier de Google et interrogés par The Verge, pointent le fait que Google « cache des informations essentielles » et ne montre « que la partie émergée de l’iceberg » sur la consommation d’eau.
Pour le chercheur de l’Université de Californie Shaolei Ren, « cela envoie vraiment un mauvais message au monde entier ». Les deux chercheurs leur reprochent notamment de ne pas prendre en compte la consommation indirecte d’eau de leur système. Si le papier de Google prend en compte l’utilisation de l’eau par les systèmes de refroidissement des serveurs, il fait fi de celle utilisée pour le refroidissement des centrales qu’ils utilisent. Or, c’est un point qui ne doit plus être négligé selon les chercheurs qui travaillent sur le sujet.
Les chercheurs de Google en viennent à comparer leur chiffre de 0,26 ml avec ceux des deux chercheurs en affirmant qu’il est « d’un ordre de grandeur inférieur aux estimations précédentes » en comparant aux 0,50 ml qu’ont pu trouver Ren et Vries-Gao. Pour ces derniers, Google compare des choux et des carottes ici.
Ils font aussi remarquer que, concernant les émissions de CO₂, Google s’appuie sur une méthode d’évaluation « basée sur le marché » tenant compte des engagements des entreprises à utiliser des énergies renouvelables, et non sur la méthode d’évaluation « basée sur la localisation » des data centers, ce qui, par définition, se rapproche plus de la réalité. « C’est la vérité sur le terrain », affirme Ren à The Verge. Avec la méthode « basée sur la localisation », la mesure des émissions est souvent beaucoup plus défavorable aux entreprises et c’est la méthode internationalement reconnue pour faire ce genre de mesure.
Commentaires (7)
Modifié le 22/08/2025 à 17h52
En passant, les chercheurs cités font justement leur travail d'hommes de science : critiquer la méthodologie, et lire les annexes d'une publication. Faire des estimations, n'en surprennent certains, c'est une vraie science qui demande de la rigueur et une parfaite connaissance des limites de la méthode utilisée, afin d'arriver à un résultat qui serve à quelque chose.
Là c'est le département Com' de Google qui a fait sa mesure, soit les personnes les moins compétentes et intègrent dans une entreprise, pour ça.
Le 22/08/2025 à 19h21
Le 0,24 W/h par requête.
Mais du coup, ils ont en moyenne combien de requêtes à traiter par heure?
Car multiplier par 1 million ça donne une autre ampleur à tout cela...
Donc oui c'est un peu se foutre du monde avec de la transparence de pacotille... On est habitué
Modifié le 24/08/2025 à 12h18
Le 22/08/2025 à 20h12
La seule information que ça nous donne c'est que la moitié des requêtes consomment entre 0Wh 0,24Wh, l'autre moitié entre 0,24Wh et + l'infini.
Pour une fois que la moyenne aurait été plus informative...
Modifié le 22/08/2025 à 20h23
Je m'étais arrêté sur l'inverse, la consommation électrique liée à la phase d'utilisation d'un LLM rattraperait assez rapidement celle liée à son entrainement, d'autant plus vite que le LLM en question serait populaire et donc très utilisé.
En cherchant vite fait avant d'écrire ce commentaire je m'aperçois que ce n'est pas si tranché que ça du fait, et ça rejoint le sujet de l'article, de l'absence de transparence sur les chiffres.
Le 23/08/2025 à 10h34
Le 24/08/2025 à 11h42
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?