Depuis plusieurs mois, la question de l’empreinte écologique du numérique prend de l’importance. Sous la présidence de Sébastien Soriano, l’Arcep s’est emparé du sujet et a récemment dévoilé ses pistes de réflexion qui tirent tous azimuts. Car de nombreux maillons de la chaîne ont leur rôle à jouer.
En juin, l’Arcep lançait sa plateforme « pour un numérique soutenable », avec un appel à contributions aux acteurs du numérique (opérateurs, entreprises, pouvoirs publics…) dans la foulée.
De septembre à novembre, cinq ateliers ont été organisés, ainsi que deux « grandes discussions ». De quoi nourrir une discussion assez dense. Le régulateur a récemment fait le point sur ce qu'il en est ressorti, ainsi que des 42 contributions écrites qu'il a reçues. Il en a tiré un premier rapport d‘étape.
Trois axes principaux
Il y dévoile onze proposions pour « conjuguer développement des usages et réduction de l’empreinte environnementale ». Pour l’Autorité, il est important que le numérique prenne « part à la stratégie bas carbone, sans renoncer aux possibilités d’échanges et d’innovation ». Le tout autour de trois grands thèmes :
- Améliorer la capacité de pilotage de l’empreinte environnementale du numérique par les pouvoirs publics.
- Intégrer l’enjeu environnemental dans les actions de régulation de l’Arcep.
- Renforcer les incitations des acteurs économiques, acteurs privés, publics et consommateurs.
L’Arcep propose, le pouvoir politique dispose
Dans cette bataille environnementale, l’Autorité se positionne comme une « force de proposition », ajoutant qu’il appartient au pouvoir politique de « définir le niveau d’ambition et en particulier la trajectoire dans laquelle il souhaite inscrire le secteur numérique ». Elle laisse donc au gouvernement le soin de définir « les outils de transparence, d’incitation et le cas échéant de contrainte ».
Pour apporter sa pierre à l’édifice, le régulateur récupère des données de l’ensemble des acteurs (notamment des opérateurs) selon des « méthodologies identiques afin de disposer d’indicateurs communs ». Elles manquent par contre à l’appel pour le moment, devant arriver en ce début d'année, sans plus de précisions.
Nul doute que le sujet occupera le nouveau président qui doit être nommé dans les semaines à venir. Laure de la Raudière a pour rappel été proposée par le premier ministre et doit être entendue par les parlementaires.
Ni condamner le numérique ni le mettre sur un piédestal
Avant toute chose, l’Arcep tient à préciser deux points importants : « Il ne s’agit pas de condamner le numérique en lui-même ni de brider ou restreindre a priori son utilisation : certains usages participent directement à la réduction des émissions de gaz à effets de serre. Il ne s’agit pas non plus de considérer le numérique comme un secteur dispensé des efforts à accomplir pour respecter l’Accord de Paris et ses exigences nouvelles ».
L’Autorité prône une approche « holistique » et ses pistes de réflexion concernent donc aussi bien les services, les opérateurs, les terminaux et, bien évidemment, les consommateurs à qui il faudrait donner plus d’informations… encore faut-il qu’elles correspondent à une réalité tangible et soient faciles à appréhender par tout à chacun.
Obligation de résultats, pas uniquement de moyens
« Constatant qu’une prise de conscience est déjà à l’œuvre, les propositions de l’Arcep se donnent pour objectif d’amplifier cette mobilisation, et de s’assurer qu’elle permette effectivement de dépasser le seul registre des bonnes intentions ». Il s’agit donc de surfer sur l’actuelle « bonne volonté des entreprises » et passer d’une « obligation de moyens » à « une obligation de résultat », résumait Sébastien Soriano lors de la conférence de presse.
« Pour éviter le registre des bonnes intentions », il proposait la mise en place de « codes de conduite » avec un cadre légal, supervisés par une autorité des pouvoirs publics – pas nécessairement l’Arcep – en charge de les définir, de suivre leur application et leur respect. Mais aussi d'« aller au-delà avec des engagements contraignants des acteurs, un peu dans la logique de ce qui existe dans le secteur des télécoms ».
Quelques idées de codes de conduite
Première piste : « travailler avec les grands OTT du streaming sur la question de l’autoplay [et] de l’optimisation des flux vidéo pour pouvoir inscrire cela dans un code de conduite, qui permette aux acteurs de sortir d’un dilemme du prisonnier ». L’Arcep veut les « accompagner pour que collectivement ils s’engagent dans ce type d’initiative ».
Elle évoque les efforts communs des plateformes lors du premier confinement comme exemple de réussite.
Autre piste d’action : l’obsolescence des terminaux, en partie « due à l’obsolescence logicielle ». L’idée serait là encore de travailler avec les principaux concernés – Apple et Google – pour « développer des pratiques conjointes ».
De manière générale, « il y a des progrès absolument considérables à réaliser » dans le domaine des terminaux, affirmait Sébastien Soriano. Il est aussi revenu sur le principe de la subvention des mobiles (avec un engagement généralement de deux ans à la clé) : « l’Arcep est d’avis que cette pratique n’est pas souhaitable. Pour autant, comme elle est devenue largement minoritaire, il nous a semblé qu’on pouvait se mettre dans une logique de suivi plus fine de ces pratiques, plutôt que dans une logique d’interdiction ».
Durant la conférence, il a également évoqué la fin des forfaits illimités évoqués dans des rapports du Sénat et du CNNum. Il rappelle sa position sur le sujet – un « NON » en majuscule – et affirme que ce n’est pas la direction voulue par l’Autorité. Mais il laisse entrevoir une possibilité : cela pourrait venir des opérateurs si nécessaire, pour essayer par exemple de rentrer dans leurs objectifs de réduction de l’empreinte carbone.
Ce n’est a priori pas pour tout de suite alors que Free vient de lancer son forfait 5G « illimitée » à 9,99/15,99 euros par mois pour les abonnés Freebox. Orange et SFR aussi ont des offres « illimitées » avec la 5G, sans oublier que c’est la règle sur l'Internet fixe, qu'il s'agisse de xDSL ou de fibre.
- Fin des forfaits illimités et empreinte environnementale du numérique, une maladresse sénatoriale
- CNNum et fin de l'illimité sur le fixe : Sébastien Soriano dit non, Gilles Babinet se désolidarise
Informer les utilisateurs, sans les culpabiliser
Le régulateur souhaite aussi « renforcer les incitations au niveau des utilisateurs » : « Il ne s’agit pas seulement de les culpabiliser sur l’impact environnemental de leurs usages, mais simplement de les informer. Aujourd’hui, notre impression est que cette information est très diffuse, difficile d’accès. On propose de mieux l’organiser […] Une idée serait de transposer ce qui existe sur la qualité de service et la couverture à la question de l’écologie ».
« On peut imaginer aussi d’avoir une information beaucoup plus fine des consommateurs sur les conséquences de leurs choix ». L’indice de réparabilité est un premier pas, mais « on peut imaginer des choses plus pointues qui vous permettraient quasiment en temps réel d’avoir un retour, si vous le souhaitez, sur l’impact environnemental ».
Par exemple, être informé directement à l’issue de la lecture d’une vidéo de l’empreinte carbone correspondante, ou bien sous la forme d’un bilan des usages, avec un principe qui serait calqué sur celui des applications de gestion du temps d’écran. Cette proposition manque pour le moment de consistance pour juger de son intérêt, et la limite entre l’information et la culpabilisation pourrait être assez fine.
- Comment sera déterminé l'indice de réparabilité des TV, smartphones et PC portables
- Baisser sa consommation électrique : des gestes « simples » pour vos ordinateurs, écrans, NAS, etc.
Vers une explosion des volumes de data ? Pas si vite…
Sébastien Soriano est également revenu sur les différentes simulations promettant pour les années à venir une explosion plus ou moins importante de la consommation data avec un rappel important en la matière : « personne n’a de boule de cristal. Ce que font le Shift Project ou d’autres, ce sont des simulations ».
« Ils prennent des hypothèses sur le développement des usages et l’efficacité énergétique/écologique des réseaux. C’est la combinaison des deux, en fonction des hypothèses qui sont prises, qui donnent des trajectoires ascendantes ». La Commission européenne a d'ailleurs fait le point sur le sujet, se basant sur plusieurs estimations.
Mais le développement des usages « ne veut pas forcément dire explosion des volumes » tempère le régulateur. « Pour nous cela veut dire "permettre à l’histoire du numérique de s’écrire". Avec de nouveaux usages à venir, il n’y a pas qu’une dimension d’intensité ». Le passé « nous montre qu’il y a des capacités de compensation au moins partielle des effets rebonds par des efforts internes […] Il n’y a pas de fatalité ».
En sera-t-il de même avec les réseaux du futur ? Impossible à dire pour l’instant. Dans tous les cas, : « on ne serait pas du tout à l’aise à mettre une limite, on ne veut pas de bridage ». Pour y voir plus clair, le gendarme souhaite donc appliquer son principe de régulation par la donnée et développer « des instruments de pilotages pour savoir de quoi on parle, fixer des objectifs de maitrise » et, si besoin, baisser l’empreinte écologique…
« Mais ça ne se fera pas tout seul », reconnait Sébastien Soriano.« Il faut que la puissance publique s’en mêle, qu’elle soit dans un corps à corps avec les acteurs économiques » conclue-t-il.
Quand la bonne volonté n’est plus suffisante
Pour lui il faut « dépasser le registre des bonnes intentions pour que la puissance publique se porte garante du fait que les efforts des acteurs sont substantiels et réels », esquissant une piste de travail pour la nouvelle équipe :
« Le pouvoir politique définit des objectifs : "on en est là, il faut qu’on arrive là en 2030/2040 et on se donne x % par an pour y arriver". Ensuite on décline cet objectif par acteur. Qu’on puisse entrer dans une logique de recevoir des engagements de la part des acteurs pour respecter cette trajectoire et que ces engagements deviennent potentiellement juridiquement contraignants ».
Si ces efforts volontaires – avec plus ou moins d’incitation – se révèlent insuffisants, « il faudra peut-être envisager des outils plus puissants ou bien des incitations économiques plus fortes, avec de la fiscalité par exemple […] Ou bien le cas échéant – ce n’est pas ce qu’on souhaite – une logique d’interdiction/contraignante vis-à-vis de certains types d’usages ». Bref, toutes les pistes sont ouvertes.
« Aujourd’hui on est dans le registre des bonnes intentions des entreprises, et nous disons clairement que ce registre n’est pas suffisant », ajoute Soriano.
Et revoilà l’effet « rebond » de la 5G
Bien évidemment, la 5G s’est rapidement invitée dans les débats. Il faut « arrêter de croire qu’un slogan peut résoudre des problèmes. La question n’est pas de limiter ou d’interdire des utilisations du numérique, la question c’est véritablement comment on l’utilise […] en respectant les objectifs qu’on se pose […] La 5G a été pensée depuis le début avec la notion de sobriété au cœur », explique Serge Abiteboul, membre du collège de l’Arcep.
Il donne un exemple : alors que l’utilisation des données double (grosso modo) tous les 18 mois « on reste à peu près à quantité égale » sur la consommation. Il affirme donc que « la question n’est pas la technologie, mais son usage » ; il ne faut pas « écarter des technologies qui sont fondamentalement saines d’un point de vue sobriété ».
Sébastien Soriano est sur la même longueur d’onde, et revient au passage sur l’effet rebond attendu par certains :
« D’accord la 5G ça va être une meilleure efficacité énergétique au Mb transmis, mais comme dans le même temps vous promettez – je me mets à la place des critiques – que ça va permettre une démultiplication des usages des données, l’acquis va être plus que compensé par l’usage par l’accroissement des volumes […]
Dans les télécoms, notre impression c’est que cet effet rebond il a plutôt été maitrisé par le passé […] il y a une capacité de maitrise potentielle vis-à-vis de cet effet rebond… mais ça ne se fera pas spontanément ».
Il ne manque maintenant plus que les données collectées par l’Arcep pour parfaire le tableau d’un « numérique soutenable ». Problème, elles sont pour le moment aux abonnés absents. Le travail de collecte a certes commencé auprès des opérateurs, notamment sur « les gaz à effet de serre et la consommation énergétique des box », mais « on travaille pour affiner les mesures », reconnait Laurent Toustou (conseiller numérique à l’Arcep).
L’ambition était au départ de les publier dans ce rapport, mais elles arriveront dans un second temps, dès le début 2021 pour une partie d’entre elles. Dans tous les cas, l’objectif est « d’en disposer le plus rapidement possible ».
La liste des onze propositions
Pour finir, voici les propositions de l’Arcep, classées en fonction des trois principaux axes de développement :
- Améliorer la capacité de pilotage de l’empreinte environnementale du numérique par les pouvoirs publics.
- Confier à une entité publique le pouvoir de collecter les informations utiles auprès de l’ensemble de l’écosystème numérique.
- Participer, dans le cadre de ses initiatives avec l’ADEME à la création d’un référentiel de mesure de référence.
- Intégrer l’enjeu environnemental dans les actions de régulation de l’Arcep.
- Accompagner la transition du cuivre vers la fibre.
- Encourager les optimisations des réseaux en accompagnant la mutualisation des infrastructures de génie civil et des parties terminales des infrastructures fibres (réseaux d’accès).
- Encourager des initiatives visant à mettre en œuvre des mécanismes de mise en veille automatique des box des opérateurs.
- Affiner l’analyse des impacts positifs et négatifs d’une extinction des réseaux 2G ou 3G pour lever les barrières possibles.
- Étudier en 2021 une évolution des indicateurs de « performance » des réseaux.
- Étudier, en lien avec les acteurs intéressés, les solutions d’optimisation de l’impact environnemental des réseaux mobiles.
- Développer, le cas échéant, un suivi plus précis des pratiques de subventionnement de terminaux par les opérateurs et de leurs effets.
- Renforcer les incitations des acteurs économiques, acteurs privés, publics et consommateurs.
- Élaborer avec les acteurs concernés des codes de conduites/chartes renforçant la logique d’écoconception et pouvant mener à l’adoption d’engagements juridiquement contraignants.
- Renforcer la capacité d’action et la responsabilité des utilisateurs par une démarche de « régulation par la donnée » favorisant l’émergence d’outils d’aide à la décision du consommateur.
Commentaires (16)
#1
“Il donne un exemple : alors que l’utilisation des données double (grosso modo) tous les 18 mois « on reste à peu près à quantité égale » sur la consommation. “
Cette phrase n’est pas claire du tout pour moi. Une explication plz? :)
Autrement merci pour l’article intéressant et riche.
#1.1
En gros on a toujours besoins de plus en plus de capacité de calcule, de stockage, de bande passante ect parce qu’on a de nouveaux usages.
Mais en même temps les avancées technologique qui sont fait dans ces domaines permettent de ne pas augmenter la consommation d’énergie bien que les performances augment (le double de perf en 18 mois sans augmenter significativement la consommation).
Un exemple traité par Inpact Hardware avec la 980 vs 3070. La conclusion c’est que la 3070 consomme un tout petit peu plus que la 980 (20%), mais on dégage 3x plus de performance
#1.2
Aaaaah la consommation d’ENERGIE !!
C’hsuis trop con j’aurais dû corriger tout seul. J’étais bloqué sur la data donc je pensais “consommation de data” du coup forcément ça collait pas.
Merci pour la clarification, triviale mais apparemment nécessaire pour mon petit cerveau embrumé
Merci à toi également :chapeau:
#2
Merci pour ce bel reticle, riche et intéressant.
Je note avec regret que ces autorités en sont resté à la politique des chartes, des engagements et des petites incitations économiques qui ne permettent pas de grands changement.
Ce sont au contraire des contraintes juridiques stables , progressives et de long terme qui mettent tous les acteurs économiques sur un pied d’égalité et donnent la stabilité et visibilité nécessaire pour que les changements aient lieu dans les temps avec l’intensité suffisante.
Pour résumer, nous avons des régulateurs qui rechignent à faire de la régulation. Sacré paradoxe.
#3
Il dit que la consommation énergétique reste constante malgré un doublement des volumes transférés qui double tous les 18 mois.
Reste à savoir quels scopes il considère
#3.1
Certainement pas celui de la production du matériel, ils ne parlent que de conso électrique de l’utilisation.
Car l’énergie nécessaire pour la fabrication n’est certainement pas divisée par deux tous les 18 mois, ce qui veut dire que la part de cette consommation de fabrication par rapport à la conso d’utilisation augmente à chaque génération, et donc que le premier problème à résoudre est celui du renouvellement trop régulier du matériel.
#4
AKA
“L’industrie a bien su gérer dans le passé donc l’État va s’en mêler dans le futur”
AKA
“accroche toi au pinceau, j’enlève l’échelle”
#5
Tu leur prêtes des intentions qu’ils n’ont pas. Ils vont simplement dire et communiquer que l’Etat fait quelque chose, mais via des dispositifs tellement contraignants que les entreprises vont faire comme avant.
Pour reprendre ton image, c’est comme si le mec en bas fait venir des caméras en disant “attention, je vais enlever l’échelle, accroche toi au pinceau”. Mais une fois la bonne photo prise sous le bon angle, tout le disparait et l’échelle reste en place.
#6
#7
Pour optimiser le premier truc à faire c’est la mesure.
Et franchement, réussir à avoir un chiffre sur l’énergie consommé par un logiciel, c’est très compliqué. Intel propose 2 ou 3 compteurs au niveau du PC complet. Ce qui implique des manipulations pour calculer la consommation d’un seul logiciel, puis de faire une division par transaction ou par appel d’API.
#8
Je ne crois pas qu’il s’agisse de faire des mesures aussi précises mais plutôt de travailler avec Apple, Google (surpris que MS n’y figure pas) pour limiter la fréquence de renouvellement des terminaux quand des versions du systèmes sortent (à ce jeu, sur PC, il me semble que MS est devenu assez bon depuis W8, les specs minimales ne doublent plus à chaque nouvelle version de windows, c’est plutôt assez stable)
Par ailleurs, quelle est cette solution tordue pour avoir le coût des appels à une API ? C’est plus simple de faire une application qui ne contient que plusieurs millions d’appels à la même fonction, qu’on exécute seule* sur un système, et on en déduit le coût par appel.
*il y a des services qui tourneront quand même, mais ce sera le cas en réalité aussi, et il suffit de comparer avec et sans l’application.
#9
GNU/Linux n’y figure encore moins car tout le monde sait qu’une vielle bécane tourne toujours sur un GNU/Linux à jour avec un environnement bureautique optimisé pour des CPU faméliques
Blague à part, je suppose que MS n’est pas cité car le plus fort renouvellement se fait sur les smartphones/tablettes et pas sur les PC (portable ou fixe) où Windows est majoritaire.
#10
C’est le secret du régulateur : parier sur l’échec de l’esprit d’équipe des concurrents pour faire apparaître une normalité… !
Retour vers le futur…
#11
Le coût environnmental des réseau est plutôt constant sur le fixe. Vous faites passer 1 gb/s, 5 gb/s, 8 Gb/s sur une fibre, ce sera la même chose. Et si cette liaison n’est que très peu utilisée, elle consommera la même chose.
Par contre, on change la donne sur les équipements terminaux (fabrication), consommation des équipements actifs sur le réseau, sur les pertes en ADSL et réseaux mobiles assez énormes.
#12
D’un autre côté, vu les progrès de MS dans le domaine, et la relative constance des distribs linux, peut être que les bons élèves pourraient coacher les cancres
#13
Je crois que tu n’as pas compris mon commentaire. Je parle de la consommation d’un logiciel par rapport à un autre. Pour savoir si un truc en Java ou en C++ ou en Go est plus efficace, il faut mesurer. Et pour identifiercette efficacité, il faut pouvoir mesurer l’énergie consommé par unité de traitement. Pour un serveur, cela revient à une transaction ou à un appel d’API.
Mesurer le cout d’une fonction dans une boucle est un mauvais bench. C’est la différence entre un microbench et un bench applicatif. Le fait de faire une boucle permet d’avoir des taux de prédiction (de branchement, de prefetch) très bon dans le CPU + des caches “chaud”, ce qui biaise complètement le résultat (genre de 30%). Il suffit de tracer la courbe de chaque exécution pour le voir, on voit une accélération en 3 exécutions, un plateau, puis des “spikes” qui correspondent à de la gestion kernel ou de GC, selon le langage.