votre avatar Abonné

deathscythe0666

est avec nous depuis le 18 décembre 2018 ❤️

1683 commentaires

Le 05/02/2020 à 19h 35

D’un autre côté, un maire c’est plus proche des habitants et ça connait mieux les problématiques de sa commune. Ceci dit, ce n’est pas toujours le cas (d’ailleurs ton maire précédent était peut être naze pour que ta ville devienne une ville dortoir)

Le 04/02/2020 à 20h 07

Je ne pense pas qu’on puisse comparer le solaire et la géothermie :




  • Le solaire a deux applications : produire du courant avec le PV, ou l’eau chaude sanitaire (mais la surface nécessaire pour chauffer un logement avec est assez peu crédible et dépendrait beaucoup des conditions : grand froid + nuit = pas de chauffage, c’est assez moyen comme situation)

  • La géothermie est utilisée en général comme source de chauffage moyennant un appareil d’extraction (la pompe à chaleur) qui consomme du courant. Une installation de géothermie pour produire de l’électricité n’est pas un équipement qu’un particulier peut financer et installer dans son jardin.



    Donc le solaire pour l’ECS et un peu de courant (ça peut servir à se substituer 30 ou 40% à du fossile), c’est utile et l’investissement n’est pas trop lourd, et la géothermie ou, a minima, une PàC air pour le chauffage, c’est également intéressant (permet d’extraire plus d’énergie de l’environnement que ce que consomme la pompe elle-même), en particulier en substitution du gaz ou du fioul comme source de chauffage.



    Soit dit en passant et en tirant un peu sur les liens de cause à effet, une PàC air, c’est de l’énergie solaire puisqu’elle puise son énergie dans l’air chauffé par le rayonnement solaire :-)

Le 04/02/2020 à 15h 57

Une pompe à chaleur est un appareil qui prend de l’énergie d’un côté et en restitue (moins) de l’autre. Dans un système de géothermie, tu as un collecteur souterrain (horizontal ou vertical) qui profite de sa profondeur dans le sol pour garder une température assez régulière. Pour te chauffer (ou chauffer ton ECS), le dispositif qui prend l’énergie de ce collecteur et la concentre pour que tu l’utilises est une pompe à chaleur.



Et même en PàC air->qqch, ça marche pas mal (il y en a énormément en Scandinavie, c’est que ça doit quand même assez bien marcher au froid).



@Renault



On est d’accord, ce que je voulais dire, c’est que le pilotage est à l’initiative du système et de ses opérateurs, contrairement à Idiogene qui semblait dire implicitement que les systèmes pilotables ne le sont pas et qu’on les laisse faire ce qu’ils veulent (ça poserait qql soucis lol)

Le 03/02/2020 à 13h 26

En fait, la géothermie (pour la génération d’électricité) souffre du même problème de collecte d’énergie diffuse que le PV et l’éolien (la ressource est en théorie quasi infinie, mais les coûts financier et en matériaux des dispositifs d’extraction sont extrêmement élevés). Les rendements de la géothermie sont très mauvais (Carnot nous dit que ça va dépendre de la température, qui est faible dans le cas présent). Il est plus intéressant (mais encore très coûteux) d’utiliser la géothermie avec une PàC pour le chauffage.



Encore une fois, il ne faut pas confondre l’énergie potentielle d’une source (qui peut être extrêmement élevée voire démesurée, comme le rayonnement des qql °K du vide spatial) et la capacité qu’on a à l’extraire et l’utiliser (qui est zéro en ce qui concerne le vide spatial).



Concernant tes réponses à Ramaloke et ce qu’il disait, je ne pense pas qu’il affirme que c’est du BS de dire que la radioactivité est dangereuse, ou que les déchets radioactifs le sont, c’est juste qu’on se braque sur des éléments dont on a des idées totalement faussées de l’effet réel (comme croire que tout déchet radioactif est un HALV, que Chernobyl a fait des millions de morts, qu’on est passé à côté d’une destruction complète de l’Europe, que Fukushima a fait des morts, etc.) alors que la radioactivité représente comme toutes les choses un risque selon la dose (d’ailleurs, ton exemple est tout à fait pertinent et oublié par les anti-nucléaires : on baigne en permanence dans la radioactivité, à plus ou moins fortes doses :https://blogs.mediapart.fr/pierre-yves-morvan/blog/051014/catastrophe-nucleaire-…



Le pilotage des centrales (quelles qu’elles soient) obéit au même principe : il faut à tout moment équilibrer la production et la demande. Dans les centrales gaz on ouvre plus ou moins les vannes, dans les STEP aussi, dans les centrales charbon on met plus ou moins de charbon, et dans le nucléaire on fait varier (un tout petit peu) la quantité de fissions (on est légèrement en dessous de 1 pour réduire la puissance, légèrement au dessus pour augmenter) grâce à une injection plus ou moins importante de bore dans le modérateur (de l’eau). Et donc, dans tous les cas, le pilotage est en pratique fait par les opérateurs de la centrale, décidé par leurs supérieurs, et à la demande du réseau.

Le 03/02/2020 à 09h 52

Petit correctif, le réveilleur a fait sa thèse sur l’analyse de cycle de vie et les impacts sur l’environnement.



Et laisse tomber pour prouver à quelqu’un qui ne veut rien entendre (en l’occurrence, ce sont surtout ceux qui n’acceptent que de croire les discours de greenpeace, sans aucune ref scientifique, ni même connaissance technique), ils continuent à soutenir (comme Rivasi) qu’il vaut mieux entreposer les déchets pendant des milliers d’années (et donc laisser les générations qui nous suivent se démerder avec) que les stocker et les laisser vivre leur (demi-)vie enterrés là où personne ne va.



Juste pour préciser sur les hot spots, à 4 jours tu risques plus un cancer de la thyroïde, en revanche à 70 jours et 2 Sv tu es quasi certain que ça te tue. C’est pour ça qu’il y a un tas de procédures et de règles pour la sécurité des déchets nucléaires comme dans toute activité industrielle qui produit des déchets dangereux. L’avantage avec le nucléaire (entre autres industries), c’est que les déchets restent là où ils sont produits (ils ne sont pas envoyés dans l’atmosphère ou dans les rivières), et qu’ils sont solides (donc plutôt faciles à manipuler et contrôler). Que les HALV soient très dangereux, oui, c’est certain, mais ils ne s’envoleront pas à des km au premier coup de vent.

Le 02/02/2020 à 20h 33

Que la demande varie, et la production ENRi aussi, aucun doute, le problème c’est que ça ne se fait pas en même temps, donc il faut conserver une puissance pilotable égale à la pointe, sinon on risque le blackout (vu les heures de pointes, on a déjà le PV hors jeu, et souvent l’éolien n’est plus très présent, anticyclone oblige). C’est la raison pour laquelle l’Allemagne est passée de 100 GW pilotables (pré-Energiewende) à 100 GW pilotables + 100 GW ENRi (post-Energiewende) et un kWh qui coûte le double du nôtre (pas étonnant quand il faut entretenir un système électrique double)



Nos géologues sont forts, mais il faut quand même creuser pour savoir réellement ce qu’il y a dans le sous sol, ce n’est pas toujours possible/facile, et c’est coûteux :

https://jancovici.com/publications-et-co/articles-de-presse/les-gaz-de-schiste-c…



Concernant l’import : les Chinois ont déjà cassé l’industrie du PV allemande et sont en train de faire pareil avec l’éolien, sur le plan économique ça restera pour nous de la destruction d’emplois.



Pour rappel, le nucléaire est exportateur net pour nous, il cumule du coup cet avantage avec la pilotabilité. Car en effet, @DayWalker, il suffit d’aller lire les courbes de charge sur RTE ou autre pour voir qu’EDF pilote ses réacteurs et module leur fréquence pour faire du suivi de charge :

https://doseequivalentbanana.home.blog/2019/01/27/canicule-ou-gel-la-production-…

Le 01/02/2020 à 15h 52

Pour plusieurs raisons :




  • Il y a un marché de l’électricité, qui réagit suivant l’offre et la demande. Quand la demande est faible et l’offre forte (i.e. quand la production fatale est très élevée et qu’on ne consomme pas trop), les prix de gros peuvent devenir négatifs (même dans un système à coûts fixes comme le nucléaire, vu que varier ne coûte ni ne rapporte, varier à la baisse et se faire payer par le producteur est rentable)

  • Les pics de consommation dépassent (de 30 GW, soit 50%) notre capacité nucléaire (63 GW installés ne produiront jamais 90 GW, c’est assez évident), donc si on a une production ENRi suffisante entre nous et les voisins, autant en tirer parti plutôt que de démarrer du charbon ou du gaz (où le combustible a un coût non marginal)

  • L’ARENH empêche EDF de vendre n’importe comment sa production nucléaire, il y a donc une stratégie (car il lui faut réserver environ 25% de la production nucléaire pour ses concurrents)

  • il y a sûrement d’autres raisons (peut être des accords entre producteurs, etc.)



    L’importation à prix d’or et l’export à prix faible me semble être une légende urbaine, si on suit les stats RTE (données au quart d’heure je crois) et le marché, il n’y a pas spécialement de règle. De toute façon, avec les ENRi, c’est surtout une question de chance ou de malchance avec la météo.

Le 31/01/2020 à 21h 25

Heu, sérieusement, le photovoltaïque et l’éolien sont 10 à 100 fois plus intensifs en matériaux que le nucléaire, voir ici en page 14 (391 du doc total) :https://www.energy.gov/sites/prod/files/2017/03/f34/qtr-2015-chapter10.pdf



On se fiche pas mal de savoir ce qu’il y a dans les restes du minerai d’uranium (ça ne rentre pas dans les réacteurs, donc si vraiment il y a des éléments intéressants dedans, ça peut se récupérer). Le besoin d’eau d’un réacteur nucléaire est relativement faible (par rapport à l’énergie produite et au niveau d’étiage des fleuves). Les canicules ont représenté un problème pour une demi douzaine de réacteurs : ceux qui recrachent dans l’eau de la rivière ce qu’ils y ont pris pour se refroidir, les autres diffusent dans l’air par les aéroréfrigérants. D’ailleurs, tous les réacteur thermiques (charbon, gaz, et nucléaire) ont besoin d’eau.



Soit dit en passant, pendant que les réacteurs voyaient leur puissance réduite (un peu ou beaucoup, c’est selon), les anticyclones (en cas de canicule c’est souvent avec anticyclone) faisaient que la production éolienne était quasi nulle, et la température amoindrissait aussi le PV. Dit autrement, même en pleine canicule, notre seul source pertinente de production était le nucléaire (et ça le sera vu que des mesures ont été prises pour éviter ces problèmes à l’avenir).



À emprise égale, un parc PV aura une puissance crête (très théorique et non pilotable) de quelques MW alors qu’une centrale nucléaire comportera 2 à 6 tranches allant chacune de 900 à 1450 MW (1600 pour un EPR). Donc, oui, à emprise égale, j’espère bien qu’il y aura moins de matériaux dans les panneaux PV …



Par ailleurs, on oublie souvent que le facteur de charge limité des ENRi (en particulier le PV) impose aussi de renforcer le réseau : pour obtenir la même quantité d’énergie du solaire (facteur de charge ~15%), il faut donc 6 à 7 fois plus de puissance installée (et il restera le problème du stockage, journalier et inter saisonnier), donc un réseau qui supporte 6 à 7 fois la puissance actuelle.

Le 31/01/2020 à 13h 36

Toute activité a un impact, le but c’est de choisir ce qui en a le moins; typiquement le VE est bien mieux que le VT à ce niveau là, et on parle pas d’une différence de 3%, mais de plusieurs dizaines.



Mais c’est effectivement la sobriété qui sera la seule solution qui apportera des résultats (je mens un peu, si on ne choisit pas la sobriété, on subira la pauvreté, physiquement c’est la même chose, socialement pas du tout). Si on prend par exemple le numérique, diviser par 4 nos émissions est assez simple :




  • utiliser 4 fois moins de services (ou diviser leur qualité par 4, genre diminuer la résolution du streaming, éviter les téléchargements inutiles – qui a dit les pubs ? <img data-src=" /> )

  • Changer 4 fois moins souvent de terminal (PC, smartphone, etc.)

    Rien que ça, ça permet d’à peu près remplir l’objectif sur le numérique.

Le 31/01/2020 à 13h 31







OB a écrit :



Ben je suis pas d’accord.

Les écolos seuls auraient pas suffi : le projet était controversé depuis longtemps, même en interne, et pour des raisons pas du tout lié à l’écologie.

Les écolos ont servi de bouc émissaire bien pratique, et on leur a donné une victoire de façade.







Non, le second argument pour arrêter, c’était que l’uranium c’est pas cher (c’est totalement débile comme argument, car ça dépend de l’état des stocks géologiques, des techniques d’extraction et de la demande mondiale, donc des paramètres absolument pas statiques)







OB a écrit :



Effectivement, et surtout ça impliquerais d’ouvrir des mines en Bretagnes plutôt qu’en Afrique où on ne les voit pas. Je pense que c’est surtout ça le problème, l’uranium qui sort des mines a aussi besoin d’une grosse phase de conditionnement.







Encore faux, notre approvisionnement provient principalement du Canada et de l’Australie (l’Afrique n’y représente pas grand chose). Par ailleurs, dans le contexte actuel, utiliser des ressources qu’on trouve chez nous n’est pas totalement stupide (il y a bien eu un battage assez important avec le soutien d’une partie de la population française pour développer le fracking chez nous, alors que pour le coup c’était vraiment pas réalisable)







Renault a écrit :



En vrai le photovoltaïque a un intérêt : compenser l’énergie requise pour la climatisation. En général quand il fait chaud, il y a du soleil et quand il fait nuit on en a moins besoin.



Mais c’est plutôt cher pour un tel besoin. Disons que quelques pourcents de photovoltaïques pour gérer cette surconsommation au niveau du pays n’est pas un mal dans ce but. Mais pas plus.







Ou même pas : avec le développement de la clim, on a des pics estivals à ~60GW, ce qui est très faible par rapport aux 90+ GW qu’on observe à peu près chaque année en Hiver. D’autant que le rendement max des panneaux est atteint au printemps (les panneaux photovoltaïques supportent mal la chaleur, ça fait baisser leur rendement). En fait, la donnée de base viciée du panneau solaire (à mon avis) c’est justement de vouloir à tout prix le caser aux particuliers (que ce soit pour autoconsommation ou envoi sur le réseau, ça revient au même), là où justement il fait généralement jour quand on n’est pas chez soi. J’aimerais plutôt voir des projets de couvrir des parkings d’entreprises de panneaux solaires pour alimenter de la recharge de véhicules électriques (qui sont en l’occurrence présents sur le parking quand il y a du soleil).







OB a écrit :



Non ce qui a arrêté ces projets, c’est la politique & les finances:

Ces centrales n’ont jamais tourné correctement, et l’utilisation du sodium, pour le coup, rendait tout accident dramatique (alors qu’avec des EPR ou autre , un accident c’est grave mais localisé - il ne peux pas y avoir “d’explosion nucléaire” avec une centrale)







Ces centrales n’ont jamais tourné correctement, encore une information issue de SDN ? Superphénix a été raccordé au réseau et a produit pour alimenter le pays (comme toute centrale en fonction). Pendant plusieurs années, les problèmes ont fait que le facteur de charge était ridicule. En revanche, de 94 à 96, quand les problèmes ont été réglés, le facteur de charge était à 95% (c’est donc là qu’on a décidé de l’arrêter, c’est embêtant quand même les trucs qui marchent).



Le coup du sodium est un problème, ce n’est pas pour autant que ça rendait possible une explosion nucléaire.







OB a écrit :



A titre personnel ce qui m’ennuie dans la surgénération, c’est que ça a été conçu à une époque de guerre froide pour “mêler” nucléaire civil & militaire - le produit des réactions est certes moins volumineux mais nettement plus radioactif, durée de vie plus longue…







Encore une contre vérité greenpeacienne, Superphénix n’a jamais eu pour but et n’a jamais pu produire du plutonium de qualité militaire, au contraire, il lui était même possible de consommer nos trop grands stocks de Pu militaire, c’est l’essence même du surgénérateur, il fonctionne au Pu !

Il n’y a eu que les UNGG (plus ou moins similaires au RBMK type Chernobyl) qui avaient vocation à faire du Pu militaire aussi, mais pour des raisons évidentes, on les a tous fermés à la fin des années 80.


Le 31/01/2020 à 09h 46







Drepanocytose a écrit :



Lol.



Allez, vu que c’est pas dangereux et qu’en plus ca ne represente rien en volume, tu seras d’accord, je presume, qu’on vienne enterrer ca au fond de ton jardin.



Ils sont vraiment cons au CEA : pourquoi ils s’emmerdent a etudier du stockage profond a Bure qui doit durer des milliers d’annees ? Pourquoi ils se font chier à imaginer des formes de communication comprehensibles dans 10.000 ans pour signaler de manière encore intelligible l’emplacement de ces stockages ?

Rien que la reference a “greenpeace like” te discredite d’entrée avant meme de regarder le “fond” (avec de gros gros guillemets ) de ta prose.



Et je passe sur le reste de ton post, qui est risible. On construit des toitures pour resister en standard a des tonnes de neige, pour ton info. Pas des kilos : des tonnes et des tonnes…

Et si on parle des anciennes toitures, elles soutiennent pour la plupart des tuiles (ou ardoises, etc.) Autrement plus lourdes que ce qu’on fait aujourd’hui.



Et la je ne parle meme pas encore des systemes de panneaux air-eau (sur les murs, donc, pas les toits), du geothermique, etc…







Oh le bel argument spécieux, effectivement bien typé greenpeace. Ce n’est pas parce que la science considère qu’on saura gérer les déchets, et que ceux ci valent mieux que le réchauffement climatique, qu’il y a une quelconque raison pour avoir envie d’avoir une activité industrielle au fond de chez soi. D’ailleurs, il est fréquent que les écolos n’aient pas spécialement envie d’avoir des éoliennes dans leur jardin, ce que je comprends tout à fait.

Quelque soit l’activité industrielle, il y a d’une part toujours une pollution engendrée, d’autre part les flux que ça implique sont une vraie nuisance pour un lieu d’habitation.



Pour en revenir aux déchets, Bure, c’est 100 ans de stockage avec réversibilité (i.e. on peut aller rechercher des colis dans le sol pour les utiliser pour une raison x ou y), puis la fermeture définitive du site, où les multiples barrières artificielles et naturelles garantissent que les éventuelles infiltrations d’eau qui arriveront ne passeront dans les déchets que lorsque ceux-ci seront revenus à un niveau d’activité naturel (c’est-à-dire inférieur ou égal au minerai d’uranium qui se manipule sans précautions radiologique particulière)







Renault a écrit :



Les déchets problématiques, à haute activité et à longue durée de vie ont plusieurs pistes. D’abord on pourrait en recycler une bonne partie pour en faire du combustible nucléaire à nouveau. La France d’ailleurs les garde de côté dans ce but. C’était le but du projet Superphoenix et Astrid qui ont tous les deux été fermés pour satisfaire les écolos… Mais les russes et chinois investissent dedans et pourraient racheter notre combustible usé si nous ne relançons pas la filière.







C’est con pour nous, du combustible pour Gen IV, on en a, sur le territoire national, de quoi être indépendants électriquement pendant plusieurs milliers d’années…







Renault a écrit :



Pour ce qui ne peut pas être recyclé, cela représente uniquement quelques piscines olympiques par an (soit pas grand chose quand même !), le but est le stockage profond. Il y a eu des précédents dans l’histoire de la Terre sans que cela ne soit un problème pour la vie en surface. On a aujourd’hui une bonne connaissance de la géologie et de la physique et chimie pour évaluer comment le faire pour minimiser le risque au maximum. Le risque 0 n’est pas possible, mais on s’en approche.







Non, les quelques piscines olympiques, ce sont les déchets HAVL depuis le début de l’exploitation du nuke chez nous, c’est à dire environ 40 ans.







Renault a écrit :



Pour les histoire de diurne / nocturne, tu as tout faux. D’ailleurs la France est le seul pays au monde à avoir du nucléaire qui sait faire du suivi de charge (car on dépend énormément de nos centrales donc on e a besoin). C’est-à-dire que nos centrales peuvent moduler leur puissance pour produire plus ou moins suivant la demande. Les autres pays globalement font de la production de base, à savoir une quantité constante à toute heure, le pic de demande étant géré par d’autres sources. Car ils n’ont pas assez de nucléaire pour avoir besoin de cette complexité.

 

Pourquoi le système de diurne / nocturne ? Tout d’abord il faut savoir qu’une centrale nucléaire c’est un coût fixe. L’uranium ne coûte pas grand chose. Donc si on vend de l’électricité la nuit, cela ne pose pas de soucis. C’est même mieux car cela signifie que les centrales nucléaires seront mieux amorties.



L’autre avantage c’est que cela limite les pics de consommation, du matin et du soir. La France consomme presque la même chose la nuit que la journée ce qui n’est pas le cas de nos voisins. Tu peux le constater avec les données de ce site par exemple :https://www.electricitymap.org/?page=country&solar=false&remote=true&amp… Or gérer un pic de consommation très intense c’est très compliqué. Il y a des tas de choses qu’on peut faire la nuit plutôt que la journée pour lisser cette consommation au maximum comme une partie du chauffage, la production d’eau chaude, la lessive ou la vaisselle. Voire plus tard, charger des appareils type voitures / bus.



Si on devait produire un maximum en journée, l’énergie produite actuellement la nuit devrait être faite en journée. Comme notre réseau électrique n’a pas des marges de manœuvres extraordinaires en hiver, il faudrait construire plus de centrales électriques pour répondre à cette surcharge en journée. Pour finalement être en sous charge la nuit. C’est du gâchis.







J’ajouterai à ce que tu dis que la vraie comparaison de coût à faire entre les ENRi et les pilotables, peut être vue sous deux angles (qui mènent à peu près aux mêmes conclusions) :




  • comparer le coût des ENRi installées au coût du combustible économisé dans les moyens pilotables : intéressant avec du charbon ou du gaz, totalement inutile avec du nucléaire qui est un système à coûts fixes.

  • comparer le système pilotable complet avec un système ENRi + stockage permettant de garantir le même service. Là on est à des coût entre 5 et 30 fois supérieurs pour le système à base de d’ENRi.

    Généralement, on peut gagner sur le CO2 (avec des investissements conséquents mais pas démentiels) en montant à une trentaine de pourcents de puissance installée en ENRi, si le système de base est très carboné (notamment dans les pays qui tournent au charbon, rien que 30% de réduction des émissions, c’est très bon à prendre).


Le 30/01/2020 à 19h 51

Fessenheim a bien été mise à jour (et l’ASN a félicité EDF pour le travail et le niveau de sûreté atteint) mais pas calcul électoral*, le gouvernement a décidé de fermer (du coup, il va devoir rembourser EDF). Aux USA, certaines centrales sont parties pour … 80 ans pendant que chez nous on se touche pour savoir si on va dépasser 40.



Pour abonder dans ton sens :

https://jancovici.com/transition-energetique/quest-ce-que-leffet-falaise/



*si on se réfère à ce qui est arrivé à Jospin en 2002 après avoir décidé de fermer Superphénix pour avoir les voix des verts, c’est pas nécessairement le meilleur calcul <img data-src=" />









Paratyphi a écrit :



L’opinion publique serait peut-être un peu moins contre le nucléaire (ça se prononce nuquelaire!) s’il y avait pas eu le fiasco de l’EPR. Les mecs te sortent une installation pharaonique construite en 4 ans pour 3.5 milliards d’euros, résultat 10 ans de retard et facture multipliée par 4. Pour ce prix, ils auraient pu construire plusieurs centrales plus petites qui seraient terminées depuis longtemps…







Le principe de l’EPR n’est pas à remettre en cause (Olki-bidule en Finlande devrait se terminer cette année, Taishan I est en usage commercial depuis l’été 2018 et Taishan II depuis 2019). C’est la gestion du chantier, et la triple nouveauté de l’EPR (nouveau modèle, nouvelle MOA, retour au métier perdu depuis 15-20 ans) qui ont posé des problèmes.


Le 05/02/2020 à 16h 53

Le fait que les puissances s’accumulent n’a rien à voir avec (le supposé) effet cocktail qui prétend que si tu mélanges des fréquences différentes, tu as un effet néfastes supérieur à la somme des effets des rayonnements pris individuellement. En revanche, ce que tu défends si je comprends bien ce que tu écris, c’est que les ondes électro magnétiques violent la loi physique qui “interdit” que l’énergie disparaisse.









KP2 a écrit :



Alors comment expliquer l’ordre de grandeur ?

Netflix est une entreprise cotée, elle n’a pas le droit de mentir sur les sujets qui ont un impact sur son bilan… Or, la conso d’énergie fait partie de ses principaux couts. Autant dire qu’ils optimisent à mort à ce niveau…

Et si y’avait une telle différence entre ce qu’ils annoncent et leur bilan comptable, je crois que ça se saurait car des couts 500x plus élevés sur un point aussi crucial, ça ne passe pas inaperçu quand meme… Peut-être même qu’ils auraient coulé depuis un bail à cause de ça d’ailleurs.



Par contre, The Shift Project peut annoncer ce qu’il veut, c’est très difficile à débunk à moins de refaire l’étude dans son ensemble (et certainement refaire les études sources aussi étant donné leur obsolescence pour un certain nombre).







Tu racontes vraiment n’importe quoi, les données financières sont publiques et connues, le reste, dont les données énergétiques liées aux fournisseurs (au hasard pour Netflix, quoi 95 ou 99% de son activité puisque rien n’est hébergé en propre), personne n’en a rien à cirer et rien n’oblige à le publier.







sylvere a écrit :



Désolé d’avoir êté très technique, je voulais être factuel: beaucoup de datacenteurs consomment énormément pour peu de bande passante générée, car ils doivent traiter les données (voir les partager avec des trackers publicitaires ce qui génère encore plus de conso).



Pour des services comme netflix il y a des caches chez le fournisseurs d’accés dans des sites régionaux, une presentation en 2013 montre une de ces machine capable de fournir 5TB de données par jour et 4Gbps en pointe pour seulement 500W de conso. Il y a 7 ans et depuis des progrés on surement été faits. le lien est ici:https://slideplayer.com/slide/4239307/



Inversement un serveur mail par exemple va consommer énormément plus pour le meme traffic généré, car c’est une activité beaucoup plus intensive (disque et CPU). En plus il n’y a pas de caches régionaux pour les mails, donc la consommation du réseaux sera aussi plus importante car le serveur plus éloigné.







Merci pour la condescendance (“j’ai pas voulu être trop technique”), je connais bien le domaine et les discours d’enfumage de toutes ces boîtes à peu près à tous les sujets. En fait, tu es juste en train de me dire qu’en plus des data centers loués, il y a encore plus de matériel déployé dans les réseaux (donc qui consomme aussi, et qu’il a fallu construire aussi) pour, non pas améliorer le bilan énergétique, mais limiter la latence et la gigue réseau. Soit dit en passant, ça donne rien que pour ce cache, qui est optimisé pour, une consommation de 2.4.10^-12 kWh par byte, soit 1/30e de ce qui est calculé pour le datacenter (qui lui, n’est pas optimisé pour, doit contenir de la redondance, des systèmes de refroidissement, divers niveaux d’infrastructure réseau (de la baie à la sortie du DC), etc. ce qui n’est pas nécessairement trop incohérent.



Concernant ce que tu dis pour le serveur mail, je veux bien voir des données mesurées, parce qu’entre un proc de serveur au repos et un proc à 100%, la différence n’est pas fondamentalement énorme (un CPU chargé à 1% est bien loin de ne consommer qu’1% de celui à 100% de sa capacité), comparé à des tas de vidéos avec des tas de codecs et qualités différentes, je ne suis pas certain que la quantité de disques en jeu soit la même pour des e-mails (pareil, des mesures seraient intéressantes).



Donc, je te le redis, même avec l’impact de ces paramètres, l’ordre de grandeur du problème ne change pas significativement, puisqu’ à une amélioration de qql pourcents par an de l’efficacité énergétique, on associe une augmentation supérieure des usages.


Le 05/02/2020 à 16h 12

Oui et non



Des ondes EM ou des sons, ça additionne leurs puissances (entre OEM, ou entre sons).



Mais la somme de tous les trucs et les bidules qui sont émis est assez dérisoire une fois qu’elle arrive à nous. À 1 mètre d’un appareil, on parle de recevoir des puissances genre -30 dBm, je parle pas des cas où il y a des obstacles, donc, même quand on “baigne” dans quelques dizaines de signaux (simultanés), on additionne des microwatts avec des picowatts et on obtient peut être un ou deux mW à la fin, ce qui fait qu’il semble bien actuellement que toutes ces ondes n’ont pas d’effet (en tout cas, comme bien dit par ArchangeBlandin, on ne peut pas prouver l’inexistence de quelque chose, mais quand on a beau chercher on n’arrive à rien, il y a une très forte suspicion d’une absence de lien).



En revanche, ne mettez pas votre chien dans le micro-ondes en fonctionnement :-)

Le 05/02/2020 à 15h 47

Ok, et ça va changer quoi ? Certainement pas un différentiel de 500 fois (les accès séquentiels, ça ne change pas grand chose en consommation, encore faut il que les fichiers vidéos ne soient pas éparpillés partout sur le disque, et que le fournisseur de stockage ne soit pas sur SSD).



En fait, tu es en train d’ergoter sur des paramètres techniques qui ont une influence marginale voire nulle sur la consommation (sans oublier qu’imaginer que pour Netflix il n’y a ni redondance, ni sauvegarde, mais lol quoi) pour défendre le pseudo argument du gars qui accuse The Shift Project de gonfler de 500 fois (!!) la valeur réelle, puis qui joue de l’homme de paille et de l’attaque ad-hominem quand on lui met le nez dans son caca.



Globalement, si on a une explosion de la consommation des réseaux en même temps que la vidéo en ligne supplante tous les autres flux, ça doit pas être que le fruit du hasard (ironie, je précise).

Le 05/02/2020 à 12h 18







KP2 a écrit :



Oh c’est dingue ça ! Les chiffrent qu’eux meme donnent et que tout le monde reprend comme des ânes battés concordent ! On ne peut pas nier qu’ils sont cohérents dans leur bullshit au moins…







Tu pourrais être encore plus de mauvaise foi ? Je pense que c’est pas encore assez là.



À aucun moment les études ne reprennent les chiffres du Shift Project, il y a des études américaines, suédoises, chinoises, donc certaines faites par les constructeurs de matériel, les mesures de trafic et de consommation sont faites par ceux qui sont bien placés pour les faire (opérateurs et équipementiers télécom pour le trafic, fournisseur d’électricité pour la consommation électrique), et tu me réponds que le chiffre de Netflix est crédible ?! (alors qu’eux mêmes avouent ne pas trop savoir dans quelle mesure il est juste)



Idem pour le type collapsologue, déjà il n’est pas seul sur son rapport, et d’autre part, si un nazi te dit que la terre est ronde et qu’un démocrate te sort qu’elle est plate, on doit en conclure quoi avec ta logique ?


Le 05/02/2020 à 11h 04

Avant de critiquer (sans proposer autre chose que la promo greenwashing de Netflix comme contre-argument) l’étude du Shift Project, et en regardant les chiffres utilisés, il n’y a pas nécessairement une dérive d’un facteur 500 comme tu l’affirmes. Il y a simplement un chiffre sorti du chapeau de Netflix (qui correspond à quoi d’ailleurs, la consommation AWS des serveurs ? des disques ? du pourcentage de ressources alimentées pour service Netflix ?), en face d’une étude complète et multi-sources.



The shift project converge d’ailleurs avec pas mal d’autres études, qui évaluent l’alimentation des datacenters dans le monde aux environs de 600 TWh (surprise, 15% du trafic lié à Netflix, donc de l’usage des datacenters, ça représente environ 100 TWh).

Le 05/02/2020 à 15h 59

https://www.agirc-arrco.fr/qui-sommes-nous/notre-identite/



Je te donne un fait (l’AGIRC ARRCO est une complémentaire par répartition), tu me réponds lol comme si je venais de balancer une énorme bêtise ou un mensonge éhonté. Tu discutes comme ça avec tout le monde ?









Z-os a écrit :



Le conseil d’Etat vient de rappeler au gouvernement que les communes de moins de 9 000 habitants représentent 40% du corps électoral… “Minorité” d’accord, mais faut pas se moquer du monde non plus. Ce sont eux qui ont subi le plus les coupes dans les transports en commun ces 2030 (plus ?) dernières années. C’est la voiture parce qu’ils n’ont maintenant plus le choix et qu’il s’agit pour beaucoup d’une dépense contrainte…







Mouais, facile de toujours tout mettre sur le dos du gouvernement/des élus/du service public. D’une part, dans une agglomération avec des TC, il y a une part non négligeables de tes communes de 9000 habitants ou moins. D’autre part, les communes de moins de 9000 habitants toutes seules au milieu de la cambrousse et sans aucun service sur place, il y en a tant que ça ?



J’observe autour de moi, je vois des gogols faire des kilomètres en bagnole pour aller acheter 5 baguettes (dont 2 gratuites), pas bonnes qui plus est, au supermarché au lieu d’aller à leur boulangerie qui est à 5 minutes à pieds… il peut y faire quoi l’état ?


Le 05/02/2020 à 11h 14







OlivierJ a écrit :



Les fonds de retraite correctement gérés (avec de la répartition des risques) n’ont pas eu ce problème avec 2008, surtout ce que sont des investissements à long terme, donc tous ceux étaient encore en train de travailler en 2008 n’ont pas eu de souci.







Certes, mais de toute façon, Patch était à côté de la plaque car les complémentaires sont aussi par répartition : les cotisants (actifs donc) de l’AGIRC-ARRCO payent les retraites des retraités actuels tout en cumulant les points pour leur propre retraite, qui sera, elle, payée par les actifs du futur. Donc, rien à voir avec les fonds de pensions nord-américains en 2008.


Le 04/02/2020 à 20h 17

Tout à fait, l’AGIRC-ARRCO est un système à point avec un âge pivot, décidé par les partenaires sociaux, syndicats patronaux et salariés donc. Là, ça ne leur pose pas de problème, parce que c’est à eux de devoir assurer l’équilibre budgétaire, par contre, avec le régime général, ils ne veulent parce qu’ils ne comprennent pas (ou font semblant) d’où vient l’argent.



Pour les doux rêveurs qui voudraient une valeur du point garantie, voire un garantie d’augmentation annuelle de la valeur du point, ça vous dirait de réfléchir à ce que ça implique pour les actifs en cas de récession ? Au passage, c’est déjà le cas (on roule sur la dette pour faire aller), les nouveaux actifs ont des salaires inférieurs à ce qu’avaient leurs ainés, un taux de chômage élevé, ils auront des retraites plus faibles (s’ils en ont), et pour couronner le tout, on va les laisser se démerder avec les dettes financière et environnementale… trop cool la solidarité intergénérationnelle.

Le 04/02/2020 à 15h 01

J’avais loupé ta remarque sur la faible dangerosité des ENRi (qui est vraie). Malheureusement, et une fois de plus, l’argumentaire se retourne contre les ENRi dans la comparaison au nucléaire : l’énergie la moins dangereuse (au sens nombre de morts par TWh produit) c’est … le nucléaire (on prend bien en compte les accidents, donc Chernobyl).

Source :https://www.thelancet.com/article/S0140-6736(07)61253-7/fulltext

Le 04/02/2020 à 14h 53

Charge rapide &gt;=50kW

Ce que tu décris c’est la recharge accélérée, ce n’est pas la norme à la maison : le CRO sur une prise type greenup est plus économique à installer, couvre la plupart des besoins et ne nécessite pas un abonnement démesuré. 10 à 20 kW, en abo particulier, c’est juste énorme (si on considère qu’on arrive à quasiment tout arrêter la nuit, on est entre 12 et 24 kVA, ça pique un peu).

Le 04/02/2020 à 13h 57

Les calculs sont un peu foireux, pour plusieurs raisons (même si, globalement, il y a à anticiper sur ce phénomène) :




  • on ne connaît pas le kilométrage moyen et la conso moyenne en 2040 (si l’économie ne se grippe pas sous la contrainte énergétique, je prends les paris que ça augmentera, dans le cas contraire, il n’y aura vraisemblablement même plus 10 millions de véhicules en circulation)

  • avec les chiffres donnés, la puissance appelée est possible mais pas nécessairement correcte : elle peut varier entre 34 GW (aucun effort de pilotage, ce que permettrait au contraire Linky : tout le monde branche et lance sa charge en même temps) et 10 GW (le pilotage de la charge est fait par le réseau via un compteur intelligent et les charges sont échelonnées sur la nuit en fonction des possibilités du réseau). Le 17 GW n’a aucun sens et supposerait que les VE chargent à ~1000 W ce qui n’est pas du tout une puissance de charge standard (en général, on a 8, 10, 12, et 16 A à 230V pour le CRO)

  • La conclusion n’est pas négative : 27% de charge des centrales nucléaires, c’est assez peu (le facteur de charge annuel est de 70%, la nuit c’est beaucoup moins chargé, donc c’est possible, d’ailleurs RTE le dit aussi). Bon, si on ferme les centrales nucléaires et qu’on ne remplace par rien de pilotable, c’est une autre histoire…



    @KP2 : ma maison est au bout d’un chemin privé, c’est comme ça que ça se passe : le compteur est dans le boitier plastique le long de la rue, et le reste (30m jusqu’à la maison, puis le tableau électrique et tout le reste) est à moi et de ma responsabilité.

Le 04/02/2020 à 13h 40

Contrôler sa consommation (et l’optimiser un peu), ce n’est pas la transition énergétique. Linky permet de faire une gestion fine (par abonné/contrat) quand le réseau est dans une situation contrainte (pic de consommation). Le nucléaire n’a pas beaucoup d’inertie, il est à peu près dans la même fourchette de réactivité que le charbon. Le gaz est plus réactif, ainsi que l’hydraulique. Donc le nucléaire va servir à suivre la demande, et les réactions de l’ordre de la minutes seront gérées par STEP et gaz.



@Idiogène, plus tu segmentes ton réseau, moins il est efficace (= plus il te demande de puissance installée pour obtenir le même service). Ça n’est même pas qu’une question d’intermittence, c’est carrément une question de lissage des consommations : si tu prends le pic historique national, il est à environ 100GW (19/01/2012) alors que si tu prends la somme des pics individuels (en gros la somme des puissances souscrites par les abonnés), tu es proche de 400 GW. Que sens ça aurait d’installer 400GW de puissance (pilotable, on serait entre 1200 et 2500GW avec un panachage PV/éolien en 100% ENRi, puisqu’on rentre dans un scénario d’autoconsommation) ? C’est totalement à l’opposé de la nécessité de la transition écologique d’économiser l’énergie et les matières premières.

Le 04/02/2020 à 09h 34

Ton compteur actuel permet le télé-relevé, mais pas le pilotage à distance (donc l’effacement nécessaire si on veut supporter une quantité croissante d’énergie renouvelable intermittente). Ça peut être par exemple de procéder à des délestages beaucoup plus précis quand c’est nécessaire (sur la durée nécessaire, et pas attendre le temps de faire revenir un technicien par exemple).



Le seul problème que je vois avec ce linky, c’est son coût (il faut en changer quelques dizaines de millions, c’est pas rien) et le fait qu’il est principalement vendu comme support de la transition énergétique (vue par le petit bout de la lorgnette chez les politiques, en particulier Die Grünen et EELV) qui est mal barrée en Allemagne et dont les autres pays d’Europe devraient (et vont probablement) tirer des conclusions.

Le 02/02/2020 à 20h 45

Peut être parce que discuter avec un mur qui prend pour parole d’évangile des discours assez douteux venant des USA et qui renvoie sans arrêt le même argument sans au moins essayer de le préciser (genre, c’est la vérité et c’est tout, j’ai pas besoin de le prouver, oh wait, exactement le coup que nous font DE et USA) c’est un peu usant.



D’autant que sur le fond, je suis d’accord avec lui : le risque existe, mais la position des USA (qui espionnent tout le monde et se sont militairement installés partout sur la planète, par exemple en Allemagne), c’est bien l’hôpital qui se fout de la charité.

Le 31/01/2020 à 13h 09

Des niveaux de partenariats stratégiques qui ont surtout permis aux USA d’annexer et de détruire des pans entiers de notre économie (Gemalto, Alstom entre autres victimes). L’interdépendance ridicule avec les Russes … ils nous fournissent juste le gaz qui nous permet de rester la tête au dessus de l’eau en hiver, mais à part ça, on ne dépend pas trop d’eux …



“Ils ne peuvent pas forcément produire les preuves, ça ne veut pas dire qu’elles n’existent pas”, bon on va arrêter là, je pense que discuter avec un porte parole de la maison blanche, ça va deux minutes. Comme le disait Patch, on se rappelle bien les armes de destruction massive en Irak.

Le 31/01/2020 à 10h 01

J’ai lu et je te dis que ce n’est pas le cas d’Orange. Free, SFR ou Bouygues, je ne sais pas. Ce n’est pas parce que des opérateurs le font que tous les opérateurs le font.



D’ailleurs, le texte est quand même assez drôle, parce que cette situation où pas mal de pays sous-traitent tout (au hasard, ceux qui sont les plus proches des USA), est là à cause de l’intense lobbying américains pour l’ouverture des marchés (pendant “qu’étonnamment” les USA ferment tous ces marchés stratégiques aux étrangers pour se protéger), et que le problème actuel, c’est simplement que le prestataire le plus intéressant n’est plus Américain mais Chinois. En fait, pour les clients des opérateurs concernés, c’est la même m…e, ça consiste à se faire empapaouter par quelqu’un d’autre mais ça ne change rien au problème de base.



Et encore une fois, il y a zéro preuve, comme sur les puces espionnes dans les cartes fabriquées en Chine. Par contre, des preuves contre le matériel et les logiciels américains, il y en a à la pelle. Je trouve d’ailleurs beaucoup plus inquiétant pour notre souveraineté que les USA puisse espionner Merkel et tous les Européens, que ça se sache preuves à l’appui, et qu’on ne réagisse quasiment pas, alors qu’il suffit d’allégations jusqu’à présent infondées des Américains pour qu’on prenne des mesures à l’encontre de Huawei.



Et l’auteur de ta référence atteint quand même le summum de la mauvaise foi et de la désinformation avec sa liste d’offres d’emploi ericsson en Chine (je peux te trouver la même liste chez Intel, Microsoft, Cisco, Autodesk, bref un peu tous les grands fournisseurs américains dans l’informatique et les réseaux)

Le 30/01/2020 à 20h 22

La source est du bon gros pipeau (au hasard, c’est un Américain qui écrit ça ?). Je connais un ex-ingénieur de Tekelec (racheté depuis par Oracle), boîte américaine qui vend des services et des équipements de supervision des réseaux de télécom. Il a fait du support niveau 3, et sur certaines interventions, il a pu se rendre compte que n’importe qui chez Tekelec avait accès en clair (si ça n’était pas chiffré dans des couches supérieures indépendantes de l’opérateur) à tout ce qui transitait sur le réseau (data, SMS, etc.).



Quant à dire que ce sont les constructeurs et pas les opérateurs qui opèrent les réseaux, ça me fait juste un peu marrer (pas loin de chez moi, il y a une antenne Orange Labs dont le travail est - entre autres - de préparer le déploiement de la 5G, depuis la planification d’antennes et de fréquences, jusqu’à l’optimisation des nouveautés du standard type edge computing). C’est peut être vrai pour qql opérateurs (peut être en difficulté financièrement), mais certainement pas pour Orange.

Le 30/01/2020 à 20h 04

Et tu crois que les budgets partis dans les administratifs ne permettraient pas de financer des lits ?



On a le même problème à l’université : des années de lois “d’autonomie des universités” (en fait, ça veut dire : “c’est vous qui décidez et qui faites mais vous devez faire des rapports pour tout justifier - n’oubliez pas le formulaire II.2.B en 4 exemplaires à faire signer par le ministère pour aller pisser”) : on a tellement besoin de gérer, gérer, gérer qu’on ne fait plus que ça surtout que les fonctions support ne supportent souvent rien du tout. Pour l’exemple, je suis dans un établissement où on arrive carrément à moins de 50% d’enseignants et enseignants-chercheurs dans les personnels et où une véritable armée mexicaine est en mise en place au support, genre des fonctionnaires catégories A partout (on va finir avec des balayeurs catégorie A parce qu’ils seront “responsables propreté” …)



Bref, le gros n’importe quoi, typique de la bureaucratie : on invente règle sur règle, on met en place des procédures, des analytics, des commissions truc et machin, et finalement le gugusse au bout de la chaîne se tape malgré tout le boulot des services support (qui ne savent pas, et c’est normal, exactement de quoi est fait le quotidien des opérationnels) et en plus, on continue l’inflation de personnels administratifs au lieu de renouveler (a minima) les opérationnels qui partent.

Le 27/01/2020 à 22h 02

Ça dépend, si tu jettes le malade en même temps que le lit, ça marche :)

Le 26/01/2020 à 19h 16

En quoi c’est mal de chercher à optimiser les ressources limitées d’un système pour en tirer le maximum de service/performance ?

Le 30/01/2020 à 09h 20

AWS fait tourner une grosse part du web (je pense qu’on surestime beaucoup cette part d’ailleurs) avant tout avec un marketing agressif et la bêtise des clients (c’est du même acabit que les boîtes qui ont 50% des collaborateurs qui sont des consultants payés au lance pierre mais qui leur coûtent 3 fois plus chers à eux qu’un employé interne, ça donne l’impression de maîtriser la dépense). Qui viennent d’ailleurs chouiner quand le service tombe ou qu’on les plante sur pied en stoppant un service qui leur était indispensable. C’est juste une solution de facilité, qui n’est sûrement pas aussi incontournable qu’on ne le dit (c’était le cas de google maps, quand les tarifs ont changé, étonnamment bcp de monde a eu les ressources pour faire de l’openstreetmap).



Un écran cathodique, c’est 38 kg de CO2 à produire (un 17” me semble-t-il) et ça consomme dans les 60W. Un LCD de 17” (on est généralement à bcp plus actuellement, mais prenons à diagonale égale), c’est 350 kg pour une conso de 19W (si on prend un écran LED, certainement le meilleur sur ce critère). Tu as donc une différence de 40W de consommation pour environ 300 kg de CO2 de production. Ça te fait une utilisation en France de 93750h pour compenser, ce qui est juste irréaliste (c’est plus de 10 ans non stop d’utilisation – il y a 8760h dans une année). Si tu es en Pologne, c’est mieux, mais ça te demande toujours au minimum 9375h, soit plus d’un an non stop (et j’ai caricaturé en considérant 100% de production au charbon, ce n’est plus le cas).



Quant à la livraison Amazon, elle ne change rien au fait que les gens prennent leur voiture pour faire les courses, les grandes surfaces n’ont pas fermé (loin de là), et la VPC n’a pas attendu Amazon pour exister (c’est juste que Amazon a fait mieux en rentabilité tout en détruisant des emplois et en désoptimisant le transport pour permettre la livraison en 24h).

Le 29/01/2020 à 15h 39







anagrys a écrit :



Pour le 2e point : je serais preneur de chiffres, si tu en as.







Il y a tout un rapport du shift project à ce sujet. :

https://theshiftproject.org/wp-content/uploads/2018/11/Rapport-final-v8-WEB.pdf

Notamment, l’intensité énergétique du numérique augmente de 4% par an (voir p.4 dans le résumé aux décideurs)







anagrys a écrit :



Pour le 3e : tu as raison, mais cette explosion des usages a aussi des effets de bord bénéfiques - il ne faut pas oublier ce qu’on ne voit pas. On tape sur Amazon à cause de “l’empreinte carbone” de ses datacenters. Mais les émissions globales seraient-elles plus faibles si chaque entreprise qui tourne sur ces datacenters devait monter sa propre infrastructure ?

On tape sur les smartphones parce-qu’ils sont de plus en plus complexes. Mais cette complexité leur permet aussi de remplacer de plus en plus d’appareils - est-il plus “écologique” de fabriquer un smartphone, ou un téléphone pour la maison, éventuellement un téléphone pour la voiture, une calculatrice scientifique, un magnétoscope, un appareil photo dont il faudra développer les photos par des procédés chimiques…







C’est plus complexe que ça : avant on avait un téléphone à la maison, il contenait qql grammes de composants et qql dizaines de grammes de métaux, plus une coque en plastique. C’est quelques kilos de CO2 à produire. Aujourd’hui, on a un smartphone par personne (adulte et ado, voire enfant chez les moins regardants), rempli de terres rares, de métaux. Un smartphone, c’est 60 à 100 kilos de CO2 à la production. Et beaucoup le changent tous les deux ans, voire tous les ans (pour le coup, l’objectif de réduire les émissions par 4 sur ce poste est simple, il suffit de renouveler 4 fois moins souvent).



Idem avec les écrans. Avant il y avait une ou deux TV (à tube) par foyer, aujourd’hui c’est un écran par personne voire plus (avec une ou deux TV pour visionner en famille). Un écran plat, à diagonale égale (et aujourd’hui on a largement augmenté les tailles), 10 fois plus de CO2 qu’un écran à tube. D’ailleurs, c’est le principal composant des émissions d’un smartphone, d’où l’augmentation de CO2 à la production (puisque les diagonales d’écrans augmentent de génération en génération)



Donc, ces appareils ont surtout remplacé, deux, peut être trois appareils, mais (1) leur empreinte carbone est tellement supérieure qu’ils se mettent de toute façon hors jeu sur ce critère, et (2) on les change tellement souvent qu’on aggrave largement cet impact.



Sans oublier que le téléphone + la calculette + l’appareil photo nécessitent à eux 3 nettement moins d’infrastructure et d’énergie que le smartphone.



Avec Amazon, tu as certainement pris un exemple pas très bon : non seulement l’infra a un impact fort, le fait qu’il faille sans arrêt passer par un réseau (qui a des équipements actifs qu’il faut également produire et alimenter) mais c’est en plus assez contre productif niveau financier dès qu’on a une activité importante (je me souviens d’un cours sur le cloud computing par un prof américain qui montrait à rebours de la légende marketing de ces providers qu’il est assez rapidement moins cher d’avoir son équipe et ses serveurs pour gérer son activité, à partir du moment où l’activité se développe, l’exception étant la mise en production pour une startup qui ne peut pas se permettre l’investissement).

L’idée était effectivement séduisante quand on observe le parallèle entre un réseau d’énergie et des services informatiques, mais la mise en oeuvre ne le vérifie pas (en fait, il faut toujours maintenir une activité minimale pour chaque client, qui a tendance à surdimensionner un peu pour avoir une marge de sécurité, et le simple fait de rendre disponible rapidement les ressources fait qu’il faut toujours avoir des équipements qui tournent avant leur usage, même à l’économie).



Sans oublier qu’Amazon avec le service Prime, la livraison en 24h et la gestion des stocks limités accroît fortement les émissions du transport par rapport à des méthodes plus rationnelles (qui induisent quelques jours de délai et limitent la destruction d’invendus pour cause de limite de l’espace de stockage).


Le 29/01/2020 à 13h 17

Tu oublies trois détails, avec cet argumentaire :




  • C’est faux ces dernières années, on a plutôt tendance à stagner; en fait, certains secteurs continuent à s’améliorer un peu mais :

  • le numérique est carrément à la dérive (son empreinte augmente en permanence, même pour une unité produite, par ex, les terminaux sont de plus en polluants à la production)

  • l’effet rebond fait que, quoiqu’il en soit, pour une augmentation de x% de l’efficacité, on a une augmentation de y&gt;&gt;x% des usages et donc une explosion de l’impact (sans compter que la population qui accède aux biens et services est de plus en plus importante).



    Comme il se trouve que, concernant l’effet de serre (et la raréfaction des ressources d’ailleurs), on se cogne de savoir si on consomme comme des porcs parce qu’on est efficaces avec plein de produits, ou inefficaces avec moins, c’est un non-argument. La seule donnée qui importe, c’est le total d’émissions de GES et les conséquences que ça a sur le climat, et donc l’impact sur nous (en tant que sociétés et individus).

Le 29/01/2020 à 13h 11

P la mauvaise foi, j’ai pas dit que tu as besoin de l’autorisation de quelqu’un pour glander devant YT, mais que si la conservation d’une société pas trop dégueulasse à horizon d’une génération passe par le sacrifice plus ou moins direct de certains biens et services (qui ne sont pas de première nécessité), autant accepter ce sacrifice au lieu de continuer business as usual et de se planter méchamment (forcé par la réalité physique et donc totalement hors de notre contrôle). En gros, c’est le choix entre une descente “choisie” (c’est une contrainte quand même, ça va pas être une partie de plaisir) et une descente subie (on n’en choisit pas les paramètres).

Le 29/01/2020 à 10h 27

En attendant elle est belle la dictature des gogols du “toujours plus toujours plus”. En quoi Netflix et YT sont indispensables ?



Et apprends à lire, si tu aides à isoler et chauffer les logements (donc pour les “pauvres”), tu réduis les dépenses sur ce poste, et tu compenses l’augmentation du coût du service numérique. L’objectif, c’est que le jeu soit à somme nulle financièrement mais améliore l’empreinte carbone.



Au passage, en encourageant l’inaction, tu ne fais que militer pour la lente descente aux enfers de notre économie (tout ce que tu cites, ce sont des services avec des coûts qui alourdissent nos importations). On croirait un de ces casses-c… de gilet jaune en train d’expliquer à quel point c’est difficile de finir le mois tout en postant ses photos de rond point et de palettes en feu sur facebook avec son smartphone à 1000 boules de moins d’un an.

Le 29/01/2020 à 10h 14

Et concrètement, tu proposes quoi ?



Des dizaines d’années qu’on entend “l’écologie punitive, c’est nul”, et que rien ne change. Diminuer notre empreinte, c’est consommer moins, se déplacer moins loin et moins vite, et le seul moyen à peu près infaillible de concrétiser ça, c’est de toucher au sacro-saint pouvoir d’achat (qui est en réalité un pouvoir de détruire).



Soit dit en passant, les taxes ont l’avantage de rester en majorité dans le pays (ça rentre dans le budget de l’état qui finance un tas de choses avec) au lieu de nous permettre d’acheter encore plus de trucs (plus ou moins inutiles) à bas coûts dans des pays tiers, à la production souvent très carbonée, au “profit” d’une balance commerciale très déficitaire.



Ce qui me rassure grandement, c’est qu’ils font appel notamment au shift project, qui est pour la taxe carbone mais qui la conditionne à une stratégie pour équilibrer l’effort consenti avec des mesures d’aide favorisant la décarbonation de notre économie (au hasard, remplacer le chauffage fossile par des systèmes de PàC et une meilleure isolation des bâtiments). Au passage, décarboner notre économie, ça veut aussi dire arrêter de perdre chaque année entre 50 et 100 milliards d’€ en importation d’hydrocarbures (gaz, pétrole), ne pas contribuer au financement de mouvements terroristes, et limiter notre sensibilité aux différents pics d’approvisionnement sur ces ressources (pétrole en premier lieu).

Le 29/01/2020 à 10h 20

Ça laisse quand même quelques mesures un peu pifométriques. Arriver avec les véhicules chargés à 100%, les faire rouler puis les recharger à 100% serait mieux et permettrait par exemple de mesurer plus fiablement la consommation, les infos du VE ne sont pas toujours alignées avec l’état du BMS (il y a des lissages des données brutes pour éviter les écarts brusques dans l’évaluation de l’autonomie notamment), et des outils comme Torque affichent bien les différences entre les infos internes du BMS et ce que l’on voit dans l’habitable (même sur le SoC il y a des différences).

Le 28/01/2020 à 12h 49

J’ai du mal à saisir exactement les modalités du calcul (j’ai eu l’impression que la charge était bien basée sur des mesures, mais je ne sais pas pour la consommation, si c’est du normalisé ou pas, ceci dit ça ne change pas grand chose au résultat, c’est à peine mieux que les VT).



Quant aux batteries, en 2017 une ACV donnait un bilan assez lourd, la même ACV (refaite avec la même méthodo et la même équipe) arrive à une amélioration de 2 à 3 fois moins de CO2/kWh en 2019, donc ce défaut du VE est sérieusement amoindri. (2017 : 150 à 230 kg CO2e/kWh, 2019 : 73 à 77 kg CO2e/kWh). Ça fait environ 5t CO2e pour une TM3 ou un e-niro, ce qui se dilue vite dans le nombre de km que peut tenir la batterie (400000 si on table sur 1000 cycles).

Le 28/01/2020 à 09h 24

Pas si sûr, car il y a en plus des pertes de conversion mécanique/électrique (génération de l’électricité dans le groupe), puis la conversion électricité/modification chimique de la batterie (la charge) puis la perte de conversion chimie/électricité pour restituer au moteur, et la perte de conversion électricité/mécanique pour rouler.



Edit : pour l’Australie ça a surtout de meilleures perfs que charger à l’électricité générée au charbon.

Le 28/01/2020 à 12h 55

Pour transformer HAL en journal, ce serait utile de l’ouvrir à d’autres pays pour motiver les chercheurs à la pointe des domaines publiés à contribuer (on a les reins solides en France, mais il est mieux d’être reviewé par tous les cadors d’un domaine qu’ils soient Français ou pas).



A minima on pourrait essayer d’embarquer l’UE dans cette opération (on n’est pas les seuls avec des velléités d’ouverture), et peut être faire boule de neige avec d’autres pays.

Le 22/01/2020 à 13h 01

Tu as une e-CVT (donc un HSD Toyota), tu ne peux pas comparer au reste des véhicules thermiques qui sont nettement moins efficaces et dont les valeurs WLTP sont très fantaisistes :)

Le 21/01/2020 à 15h 24







ultrariri a écrit :



Bah non, ça s’appelle “rien” parce qu’il n’y a pas de boîte. Si tu veux un truc qui se rapproche d’une électrique en terme d’agréments ce serait un variateur, comme une mob/scooter. T’as une accélération continue, donc sans à-coup ni changement de régime… Je sais que Volvo en a fait ça jadis, probablement d’autres aussi, et c’est franchement horrible <img data-src=" />







Sauf que sur les VT, il s’agit d’une transmission variable continue (CVT) qui est une boîte avec une infinité de rapports (qui suivent les besoins de puissance du véhicule en restant dans la plage optimale du moteur).







jpaul a écrit :



Tu peux trouver les justifications que tu veux, sur une électrique il n’y a pas de système de transmission de la force du moteur à la roue (ce qu’on appelle boite de vitesse).



Le moteur est directement relié à l’essieu et l’accélérateur n’est qu’un potentiomètre qui permet de modifier la tension appliquée au moteur.







C’est totalement faux, il y a un pignon de démultiplication de couple (donc une vitesse unique). Et tes deux phrases se contredisent, s’il n’y avait pas de système de transmission de la force du moteur à la roue, le véhicule ne bougerait pas.

Tu réponds à une phrase qui ne se réfère d’ailleurs pas au VE, je dis bien que le VE n’a pas de boîte. Ma réponse était sur le système CVT, qui modifie le rapport de transmission entre le moteur et les roues (mais à la différence de la boîte manuelle ou robotisée, il n’y a pas de rupture de couple pendant les changements de puissance).







Leum a écrit :



Au sujet des voitures électriques, ZF bosse sur une boite qui leur est dédié… A voir si ça convaincra les constructeurs…







Quasiment aucun intérêt, ça sert peut être à très grande vitesse (parce qu’il faut faire tourner le moteur extrêmement vite pour sortir de sa plage de rendement max), mais 1. c’est des vitesses auxquelles on n’est pas autorisé à rouler, 2. il vaut mieux gagner qql miettes sur le SCx du véhicules que de bricoler des trucs comme ça (qui vont forcément s’user et coûter de la maintenance).

Il y a deux rapports sur certaines Tesla (le rapport du moteur avant est différent de celui du moteur arrière) et ça n’a pas l’air de la rendre pour autant plus efficace que la TM3 (qui est, elle, plus aérodynamique et gagne bien plus de 5%).


Le 21/01/2020 à 09h 29

Ça s’appelle une boîte auto quand même. Et quand j’ai dit boîte auto pour le VE, je suis conscient que j’ai fait une grosse approximation, mais c’était pour comparer une clio avec une zoé, si on parle d’équipement équivalent, il faut que la clio ait une boîte auto pour avoir l’intérêt de la zoé.



Pour en revenir à ionity, c’est non seulement hors de prix avec ces tarifs, mais en plus c’est de la vraie m… : une super plaquette publicitaire, un super SAV, et heureusement car le réseau est tellement peu fiable qu’il faut appeler pour à peu près toutes les charges.



On peut critiquer Corri-Door/Izivia, mais avec ionity, j’ai 100% d’échecs de charges (sur 3 utilisations), il m’a fallu appeler le SAV à chaque fois pour relancer la charge parce que le logiciel des bornes est pourri (bornes ABB) alors que j’ai déjà réussi à lancer et charger la durée souhaitée avec izivia. Évidemment, sur ionity, avec l’ancienne tarification, ça ne gêne pas trop le fournisseur qu’on paie 8€ et que la charge s’arrête dès qu’on a le dos tourné <img data-src=" />

Le 20/01/2020 à 13h 11

Et puis ta clio, elle est pas à équipement égal, les VE ont toujours à peu près toutes les options de série (par exemple, la clio a une boite manuelle, la zoe a une automatique).

Le 21/01/2020 à 09h 14

Le nouveau CICE sera certainement plus utile (et plus simple). Le problème du CICE (première mouture), c’est que la plupart des entreprises s’en sont servi pour reconstituer leurs marges (ce qui est une stratégie pérenne), en sortie de crise économique.

Ça serait surtout mieux qu’on mette à plat toute la fiscalité et les cotisations des employeurs pour appliquer les mêmes à tout le monde, par ex., le gros point noir du CICE est de ne pas avoir assez touché les entreprises exportatrices, qui sont celles qui les plus exposées à la concurrence.



De toute façon, on voit bien que, quand l’état touche à qqch sans réfléchir à sa stratégie d’ensemble (en gros quand chaque ministre fait son truc dans son coin), ça tourne au boudin : transition énergétique à perte, CICE à perte, …

Le 20/01/2020 à 13h 07

Rhoo comme il est vilain :)



On sait bien que, quelque soit le moyen, les emplois aidés c’est plus cher. C’est surtout que ça a quand même eu un effet positif (pas extrême mais perceptible quand même) sur le nombre de recrutements.



On pourrait certainement jouer ça d’une autre manière, mais ce n’est visiblement pas facile (il faut pour ça que le gouvernement construise un dispositif qui satisfait 1. les lois françaises, 2. les lois européennes, 3. les différents lobbys (syndicats des deux côtés), 4. qui donne assez confiance donc des garanties aux entreprises qui en bénéficient, 5. qui n’engage si possible pas les finances publiques sur une trop longue durée).

Le 19/01/2020 à 19h 22







Patch a écrit :



Et si on s’en sert pour financer la hahahadopi ou le CICE (ou tout truc qui le remplace), c’est de l’argent 100% perdu.







Il semble que le CICE soit plus efficace qu’on l’imaginait (j’ai lu un article récemment sur le sujet, peut être sur Le Monde, je ne suis pas sûr).







macmc a écrit :



Rien à ajouter. Ha si. Je suis plutôt pour que les sociétés thermo-industrielles et les démocratie ne resistent pas.







La démocratie, j’aimerais bien qu’on la garde. La société thermo-industrielle reposant sur du non renouvelable avec des stocks assez limités (au rythme où on les engloutit), elle ne devrait plus durer longtemps.


Le 17/01/2020 à 20h 04







jpaul a écrit :



C’est vrai. Mais ça l’est de moins en moins. Et la tendance est à la hausse. On parle d’une évolution des mentalités sur des décennies.



Les rednecks ne sont heureusement qu’une caricature de l’humanité. Les gilets-jaunes n’en ont pas rien à branler du carbone, c’est juste pas leur priorité, et ils sont contre l’écologie punitive. La taxe carbone c’est bien beau, mais quand on aura un site internet détaillant à l’euro près les recettes et les dépenses qui sont faites avec, elle sera beaucoup plus facile à accepter. Les systèmes bonus malus, ça marche, mais faut quand même montrer clairement où est le bonus.







Quoiqu’on fasse avec les recettes de ces taxes, c’est plutôt positif pour nous (i.e. citoyens français) : si on s’en sert pour rembourser de la dette, ça rend notre situation financière plus facile à tenir (et éventuellement de futurs investissements), si on s’en sert pour financer des missions de l’état, c’est plus de services (ou des meilleurs services), et si on s’en sert pour financer des dispositifs de transition (genre changer le chauffage fossile par des PàC, isoler les logements les moins performants, etc.) c’est pile poil dans le sujet.







jpaul a écrit :



Il n’y a qu’à voir la croissance vertigineuse d’entreprises comme Biocoop, la réouverture un peu partout d’épiceries de produits à circuit-courts ou le fait que les grandes surfaces se mettent à faire du greenwashing à pleine balle pour se rendre compte que c’est devenu un réel sujet des départements marketing. Ce n’est pas forcément une grosse avancée, mais ça veut dire que les marketeux ont décelé une tendance de fond dans les choix qui orientent les consommateurs (et si il y a bien un aspect sur lesquels je leur fait confiance, c’est trouver ce qui intéresse un consommateur)







La croissance de la vente des SUV et de l’augmentation de l’équipement et des services high-tech (et de la quantité d’énergie nécessaire) n’a rien à envier à ces marchés de niches alors qu’ils ont déjà des CA (et des bilans carbone) sans aucune mesure avec les biocoop







jpaul a écrit :



C’est l’occasion de verticaliser leur approvisionnement, rien de plus. Je ne parle pas d’indépendance au sens énergétique du terme mais plutôt en terme de business : en contrôlant toute leur chaine d’appro, ils sont moins tributaires du marché, des décisions gouvernementales …







J’y crois moyennement, on est toujours dans de l’hyper spécialisation, et le texte de MS parle bien de pousser les sous-traitants et les fournisseurs à adopter leur attitude (c’est pour ça que j’ai parlé d’aller installer des CCS en Chine, ça pourrait aussi être leur payer des centrales nucléaires, ça c’est sûr qu’on sait faire et que ça marche)







jpaul a écrit :



J’ai pas trop l’impression que ça avance ces technos si ?







Justement, ce qui est dommage, c’est que MS communique lourdement sur le développement de la capture alors que ça a réellement du mal à décoller. D’un autre côté, s’ils y mettent qql billets, ça peut augmenter les chances qu’on arrive à qqch.







jpaul a écrit :



J’ai pas l’intention de laver plus blanc que blanc Microsoft ou je ne sais quelle autre multinationale, mais il ne faut pas avoir une vision binaire du monde je pense. Tout n’est pas blanc ni noir : les entreprises, qu’elles le veuillent ou non, doivent avoir une éthique si elles veulent garder leurs consommateurs et leurs employés.







L’éthique commencerait par mettre en place des stratégies pertinentes et certaines (parier comme MS sur le fait que les outils de réduction du CO2 vont arriver, que les fournisseurs vont se mettre au vert, etc., c’est comme si toi ou moi on se mettait à prendre nos décisions budgétaires aujourd’hui en comptant sur le fait de gagner au loto le mois prochain).

Pour MS (et tous les éditeurs de logiciels), ce qui serait pertinent, ce serait de viser le maintien le plus longtemps possible des ordinateurs existant au lieu de toujours gonfler les prérequis des systèmes et des logiciels, de limiter les besoins en débits réseau (au passage, ça permettrait de ne pas changer tous les 5 ans de matériel pour une nouvelle génération de réseau et des terminaux qui vont avec).

Là, ils sont dans le greenwashing parce qu’il prétendent continuer comme avant (donc croissance, toujours plus de pression sur l’environnement et les ressources) en pensant (comme les économistes le font naïvement) qu’il suffit de payer pour “réparer” les dégâts.







jpaul a écrit :



Ensuite, les mentalités changent mais ça prend du temps : combien de gens ici paient un abonnement à NXI après avoir pris conscience au fil de nombreuses années, des problèmes de l’indépendance de la presse (c’est même pas un sujet de société et pourtant NXI arrive à payer des salaires avec). Combien de personnes commencent à valoriser leur vie privée à la gratuité ? Peu. Mais énormément plus qu’il y a 5 ans. Aujourd’hui je paie 5€/mois pour ma boite mail chez Fastmail, il y a 5 ans ça ne me serait même pas venu à l’esprit. Et pourtant c’est un marché en croissance (ex : ProtonMail qui décolle).







Pareil que pour les biocoop et toutes ces niches : avec des croissances annuelles à 2 ou 3 chiffres, quand on part de quasi zéro, on n’est toujours pas bien haut après quelques années (exemple simple, le renouvelable intermittent avec ses années de croissance très élevée représente … 3% de la production mondiale, c’est à dire même pas autant que le nucléaire et ses 5% ou que l’hydraulique. On ne comparera même pas avec charbon, gaz ou pétrole tellement c’est déprimant).

Le problème au bout du compte, c’est que l’arbitrage n’est ni budgétaire, ni politique mais physique (en tout cas si on souhaite maintenir un niveau de vie qui nous paraîtra acceptable au regard d’aujourd’hui). Du 100% renouvelable, 100% bio, ça a existé (avant la révolution industrielle) pendant des millénaires, mais ce n’est pas nécessairement ce qui nous fait rêver. Sans aller jusque là, mais en étant réaliste, diviser par 4 nos émissions, c’est à peu près revenir aux années 50 (un peu mieux car nos techniques ont évolué depuis, mais l’ordre d’idée est là).







jpaul a écrit :



Le réchauffement climatique n’est réellement un sujet de société que depuis les canicules de ces dernières années, alors sans partir dans l’excès d’optimisme, gardons un peu d’espoir et arrêtons de voir le monde en noir et blanc “les méchantes multinationales” contre les “gentils animaux de la planète”.







Il n’y a pas de méchantes multinationales, que des consommateurs schizophrènes qui veulent continuer à se gaver de marchandises (en grande partie inutiles) bon marché tout en préservant l’environnement. Les canicules, c’est encore gentil et personne ne réalise les conséquences de 2 ou 3°C de plus (même les scientifiques car on n’a jamais fait l’expérience qu’on est train de faire, il y aura forcément des surprises). Mais a minima : insécurité alimentaire globale, épidémies (les virus vont migrer dans des régions où personnes n’est résistant), conflits (pour l’accès à la nourriture, à l’énergie, à l’eau ou tout simplement à la terre), montée des eaux, augmentation de fréquence et gravité des événements climatique extrêmes. L’espèce humaine en soi ne disparaîtra pas (on arrivait bien à vivre au petit âge glaciaire avec 5°C de moyenne en moins), mais nos sociétés thermo-industrielles n’y résisteront pas (pas plus que les démocraties).



L’écologie punitive, ce sera ça : pls milliards de morts faute d’avoir accepté la sobriété parce que personne n’acceptera de renoncer - et personne ne se fera élire sur ce programme - au dogme moderne de la croissance économique.

Sans oublier qu’on va se retrouver le bec dans l’eau avec des difficultés d’approvisionnement énergétiques assez rapidement (pic pétrolier, déjà passé mondialement dans le pétrole conventionnel, pic gazier d’ici qql décennies, et il y aura des pics pour pas mal de ressources non renouvelables).



Là où je suis d’accord avec toi, c’est que MS (et en fait la plupart des boîtes) font des choses de bonne foi pour le climat mais c’est très loin du nécessaire parce qu’à moins qu’on le les force par la loi (mondialement), ce qu’elles accepteraient car les règles seraient les mêmes pour tous, elles ne prendront jamais des décisions pour se couper les pattes alors que les concurrents peuvent faire ce qu’ils veulent. Pour prendre un exemple extrême, si on dit demain qu’il est interdit de tirer du pétrole d’où que ce soit à partir de 2030, ça va coûter très cher à Total de s’adapter, mais comme tous ses concurrents devront faire pareil (monter des éoliennes, faire du biocarburants, construire des centrales hydrauliques, nucléaires, etc. à eux de choisir), ils ne seront pas plus mal que ça.