votre avatar

tmtisfree

est avec nous depuis le 19 avril 2006 ❤️

7067 commentaires

Le 04/04/2013 à 08h 17







ze_fly a écrit :



La bande passante n’est pas un bien commun. Elle appartient au FAI qui la propose contre de l’argent aux clients.



Relis ton contrat d’abonnement : tu payes pour un accès à Internet sans garantie de quoi que ce soit derrière. La bande passante d’un FAI qui doit être partagée entre tous ses clients sans règle a priori est la définition même d’un bien commun (aux client du FAI).



Si la politique du FAI est de ne pas augmenter la capacité de ses tuyaux parce que il considère que ce n’est pas dans son intérêt, c’est son droit : comme c’est ton droit d’aller voir ailleurs si l’herbe est plus verte.


Le 04/04/2013 à 08h 12







Jean_Peuplus a écrit :



Et bien il est plus logique de s’en prendre aux personnes qui utilisent la connexion pour laquelle ils payent que de s’en prendre aux FAI qui est payé pour assurer un service.



Ou pas.





Tu ne payes que pour un accès à Internet. C’est l’allocation du reste (qui est limité) qui pose problème. Mon point est que la seule manière juste et équitable d’allouer ce qui est limité est de le faire suivant la consommation.


Le 04/04/2013 à 08h 09







5h31k a écrit :



Je ne peux pas me payer le restaurant 5 étoiles tout les midis car les égoïstes de capitalistes ont créé une notion d’argent et le restaurant m’en demande trop. Ils me force à aller manger au McDo.



Il faut sortir de ta coquille tmtisfree, le monde est inégal et cela c’est pour tout.





L’argent a existé bien avant la notion de ‘capitalisme’ et personne t’empêche de travailler pour te le payer. Le McDo est aussi un restaurant ‘capitaliste’ : tu devrais plutôt faire un tour du côté de la soupe populaire.


Le 04/04/2013 à 08h 04







carbier a écrit :



A partir du moment ou un FAI fait 40% de marge sur ses offlres ADSL mais refuse de financer une augmentation de ses tuyaux, je ne vois pas pourquoi cela serait aux clients de payer pour…



Il y a une différence entre une ressource qui est effectivement rare ou qui s’amenuise (l’eau potable par exemple) et une ressource qui est rendu artificiellement rare…





La politique de gestion (marge, investissements) des acteurs économiques les regardent. Si elle ne te plaît pas, tu changes de crèmerie.

En effet, s’ils préfèrent privilégier les clients raisonnables et se débarrasser d’une minorité de goinfres qui leur ruine leur business, c’est tant mieux pour tout le monde (sauf pour les goinfres évidemment).


Le 04/04/2013 à 07h 58







tazvld a écrit :



Je ne le cache pas, je fait partie de ces 15%.

Mettre un système tarifaire en fonction de la consommation, c’est imposer une limite à ne pas franchir. Cette limite décourage d’essayer des nouveaux services et encourage à limité l’usage générale d’internet. Ca serait donc selon moi faire un pas en arrière, décourager l’innovation.







Ca fonctionne aussi pour les autres :



Je ne fais pas partie de ces 15%.

Du fait du peu de bande passante qu’on me laisse, je ne peux pas essayer de nouveaux services, ce qui me limite dans mon usage général d’Internet et décourage l’innovation de ceux qui les proposent. C’est me forcer à me restreindre à l’existant pour mon business parce qu’une minorité d’égoïstes privilégie ses loisirs.


Le 04/04/2013 à 07h 47







carbier a écrit :



En quoi est-ce la faute de l’internaute ?







Une minorité s’accapare une ressource qui s’amenuise (ou qui ne se renouvelle pas assez vite). C’est un constat. Il n’existe qu’un système pour allouer efficacement cette ressource : c’est de faire payer pour sa consommation, comme pour toutes les autres ressources.


Le 04/04/2013 à 07h 44







Shwaiz a écrit :



Et à coté de ça, les FAI affichent en gros caractères 28 MEGA pour leurs offres adsl, voire 100 ou 200 pour la fibre. Et ils se plaignent que les gens utilisent un service qu’on leur a vendu comme tel et pour lequel ils payent.



En gros, c’est “Payez, mais surtout ne consommez pas, on va devoir investir”.



Ils sont à gerber.







Ils affichent “Jusqu’à 28 Méga”.



Personne ne se plaint des pratiques marketing de la Redoute avec son “A partir de”.


Le 04/04/2013 à 07h 23







Haarold a écrit :



Comment ça, l’accès internet n’est pas libre et illimité comme l’indiquent vos offres ?







Ton abonnement ne concerne que l’accès qui n’est pas libre puisque tu le payes : il n’y a aucune garantie de débit, et encore moins de débit illimité. Différencier les 2 est crucial.


Le 04/04/2013 à 07h 17



Cette minorité de Net-goinfres qui capte toute la bande-passante





Cela s’appelle la tragédie des bien communs.



C’est comme avec les pelouses des parcs publics : puisqu’elles sont à tous et n’appartiennent donc à personne, la responsabilité de chacun est diluée au point de disparaître, comme lesdites pelouses. C’est toujours le cas quand les droits ne sont pas clairement définis.



Tant que la bande passante ne sera pas facturée à l’utilisation réelle, une minorité de ‘goinfres’ la captera aux dépends de tous les autres.

Le 31/03/2013 à 10h 15







HarmattanBlow a écrit :



On ne parle bien sûr que des bandes d’absorption du CO2 (quelles que soient leurs longueurs d’onde)



Cela en dit long sur ta compréhension de la physique de base.


Le 31/03/2013 à 08h 46







HarmattanBlow a écrit :



Si le rideau était opaque tout serait absorbé puis réémis, c’est loin d’être le cas, une bonne partie du rayonnement n’est jamais interrompue



On ne raisonne bien sûr que pour les fréquences (ou longueurs d’onde) qui nous intéressent, la bande des 15µm en particulier pour le CO2 (l’atmosphère est transparente pour les autres qui sont donc renvoyées directement vers l’espace). Je te suggère d’approfondir ces bases.


Le 30/03/2013 à 21h 31







HarmattanBlow a écrit :



Sauf qu’ici le rideau n’est pas opaque. Et en rajouter un autre change la donne.



Bien sûr que le rideau est opaque, sinon le CO2 n’absorberait pas les radiations EM en provenance de la surface. C’est une analogie pour faire comprendre le principe, que manifestement tu ne saisi pas. Je ne vais pas me lancer dans les calculs qui démontrent que le nombre de molécules de CO2 excitées dans le système est très faible au regard du nombre total de molécules et qu’en rajouter ne change rien (si ce n’est abaisser très légèrement la hauteur à laquelle les photons sont ré-émis). Peut-être qu’un graphique pourrait aider ?







HarmattanBlow a écrit :



Non je n’ai pas compris ce que tu cherches à dire et, oui, c’est de ta faute car c’est formulé avec les pieds.



Tu as passé plus de temps à l’écrire que d’essayer de comprendre par toi-même.







HarmattanBlow a écrit :



Les simulations ne sont ni moins que des calculs complexes. Des erreurs s’y nichent, certes, mais aussi souvent que dans une complexe démonstration mathématique. Les mathématiques doivent-elles donc être rejetées au profit de preuves empiriques lacunaires ?



Un tas de formules mathématiques empilées les unes sur les autres et paramétrées arbitrairement n’a jamais constitué le début d’une explication physique d’un phénomène naturel.







HarmattanBlow a écrit :



Un moyen économe de jeter le discrédit.





Un des seuls moyens de trier le bon grain de l’ivraie.







HarmattanBlow a écrit :



Tu défends un point de vue auprès d’autres êtres humains. Tu te préoccupes donc bien sûr de ce qu’ils pensent, au moins de l’influence ton message sur eux.



Non. J’expose des arguments (raisonnables, logiques et/ou scientifiques). Mon point de vue, j’aime à penser que tout le monde devrait ne pas avoir à s’en soucier.


Le 30/03/2013 à 17h 05







marsokod a écrit :



Et donc la conclusion te parait vraisemblable ou pas ? C’était là la question ! La conclusion c’est qu’il y a une évolution à la hausse de la température significative, et qu’une telle évolution ne semble pas avoir été observée précédemment même si ce dernier point demande confirmation du fait des marges d’erreurs des mesures.



J’ai déjà répondu. Une telle analyse n’est pas scientifique et les pentes des réchauffements précédents sont équivalentes.







marsokod a écrit :



Renseigne-toi un petit peu sur les satellites. On mesure les températures à différentes altitudes et au sol et depuis quelques temps on peut même avoir un profil complet de la température par tomographie.

Les mesures satellites montrent une hausse de la température globale depuis les années 60. Sont-elles fiables ou erronées/ajustées à tes yeux ?



Les satellites ne mesurent pas de températures, ils mesurent des radiances et en dérivent mathématiquement les températures. Il n’y a pas de mesure globales de température par satellites avant 1979, ce qui fait que trente quatre ans de mesures ne représente qu’un seul point de climatologie : difficile d’en inférer quoi que ce soit.







marsokod a écrit :



La question était : que pense-tu du fait que Law Dome et Mauna Loa suivent une courbe similaire à l’évolution du PIB mondial ?



Elles ne le font pas. Tu as donc ta réponse, je suppose.







marsokod a écrit :



Je n’ai jamais parlé de causalité directe mais de probabilité de lien.



Ah, un adepte du scientisme post-normal. C’est très simple : il y a 2 valeurs de “probabilité de lien” en Science normale : soit on démontre une causalité et la probabilité est 1, soit on n’en démontre pas et la probabilité est 0 jusqu’à preuve du contraire.







marsokod a écrit :



L’ironie tu connais ?



Les smileys, tu connais ?







marsokod a écrit :



Ben explique moi en quoi j’ai tort alors. Lorsqu’on fait passer une certaine quantité d’énergie dans une enceinte gazeuse, plus la concentration en CO2 est forte, moins l’énergie en sort. Cette différence d’énergie reste dans l’enceinte, qu’elle soit retransmise par radiation dans le milieu, soit transformée en chaleur qui ensuite se transmet par convection et conduction. C’est un simple bilan d’énergie.



C’est pour cela que la mécanique newtonienne est bien suffisante : la physique quantique, c’est pour les rabats-joie à barbe blanche du CERN <img data-src=" /> (sarcasm inside). As-tu au moins fait ton expérience “à la maison” ? J’en doute : un spectromètre n’a rien à voir avec une enceinte.


Le 30/03/2013 à 16h 30







HarmattanBlow a écrit :



Mais pourquoi ton “altitude de départ” se serait-elle modifiée si ce n’est parce qu’il y a eu plus d’absorptions sur le chemin, donc plus de molécules excitées et d’énergie stockée à tout instant, pour reprendre les images corpusculaires que tu affectionnes ?



Tu te contentes de reposer la même question auquel j’ai déjà répondu 2 fois.Voit cela comme un rideau opaque sur une fenêtre un jour de beau temps: en rajouter un autre ne changera ni l’obscurité existante ni le nombre de photon incident.







HarmattanBlow a écrit :



Ta formulation initiale était impropre et ta réponse, si elle est correcte en substance, ne répond pas à ma remarque. Ça arrive, on ne peut pas être à l’aise dans tous les domaines. Mais si tu as un lien mieux rédigé, s’il te plaît, donne-le moi, ce sera plus simple pour nous deux et là je pourrai te dire ce qu’il en est.



En résumé, tu n’as pas compris et accuses les autres de tes faiblesses.







HarmattanBlow a écrit :



Non, ton point était que les modèles ne comptaient pas, que seules comptent les preuves empiriques. Or les données empiriques sont muettes par elles-même, ce n’est qu’à travers des modèles, des théories, que nous pouvons leur faire dire quelque chose. Si les modèles sont faux, puisque le calcul de la sensibilité repose sur un modèle, alors le résultat est faux également, peu importe l’origine empirique des données.



Tu confonds allègrement modèles informatiques et modèles scientifiques (théories) : les 2 n’ont épistologiquement rien en commun. Et les climato-catastrophistes sont loin d’avoir une théorie du climat crédible.







HarmattanBlow a écrit :



C’est pourquoi je ne vois pas de raison pour soutenir que des mesures empiriques lacunaires seraient forcément meilleures que les résultats des simulations, surtout quand tout ce beau monde repose sur les mêmes modèles. Pour rappel les non-alarmistes utilisent les mêmes formules.



Cela s’appelle une falsification.







HarmattanBlow a écrit :



PS : bla bla insipide.



Comme je me contrefiche de ton paternalisme primaire et de ce que pense celui-ci ou celui-là de mon égo comme de ma première chemise, je vais continuer à écrire comme bon me semble. Soit tu comprends un argument et tu réagit en conséquence, soit tu te laisses distraire par les ornements et dans ce cas, laisse-moi jouer. Pour ta gouverne, je ne pense pas que les scientifiques de l’IPCC soient des abrutis : ils savent très bien ce qu’ils font, et pourquoi ils le font.


Le 30/03/2013 à 12h 05







HarmattanBlow a écrit :



Dans la même veine tu expliques que le CO2 pourrait ne faire que modifier le “niveau” (altitude ?) à partir duquel le flux s’échapperait. Là aussi la formulation est trompeuse. Et même si c’était le cas il y aurait tout de même davantage d’énergie totale.



Non, comme expliqué dans le commentaire précédent. Les photons sont réabsorbés instantanément pour ceux qui sont ré-émis vers le bas (un peu moins de 50% vu que la Terre est ronde) et ceux qui s’échappe vers l’espace le fond à la vitesse de la lumière : il n’y a pas plus d’énergie dans le système.







HarmattanBlow a écrit :



En d’autres termes la réponse n’est pas forcément linéaire. Et puis cette hausse était-elle seulement due au CO2 ? Aucune idée mais l’argument vaut pour toute mesure empirique sans théorie derrière pour appuyer un lien de causalité.



C’était bien mon point.







HarmattanBlow a écrit :



Mais peux-tu m’expliquer comment des études sur six mois ou dix ans pourraient donner de meilleurs résultats ? Les mesures empiriques sont bien belles mais pour conclure on présuppose tout de même une réponse linéaire du système, à la fois par rapport au temps et à la concentration de CO2. Et si la réalité était plus compliquée ? Comment décréter que ces mesures et ces conclusions sont fiables alors qu’elles ne donnent pas du tout les mêmes résultats que ceux des 800k dernières années ?



Les scientifiques (alarmistes) commencent seulement à s’en rendre compte. Les comparaisons entre sensibilités ne sont pas valables si les conditions et les périodes mesurées ne sont pas identiques.







HarmattanBlow a écrit :



Au passage tu as donné quelques liens (je présume que les autres articles sont derrière un paywall), laisse-moi y jeter un coup d’oeil :




  1. L’article confirme le poids donné par les modèles à la contribution de la vapeur d’eau. Rien ne permet d’estimer la sensibilité dans l’article, tu annonçais 1.5K.

  2. Une sensibilité entre 1K et 4.1K donnée dans l’abstract. Tu annonçais 1.3K



    La lecture vaut-elle d’être poursuivie ?



    Certaines ont été calculées à partir des données (les mesures, pas les modèles) utilisées dans les articles (je n’ai pas noté les détails) et qui n’ont bizarrement pas été mentionnées dans le papier lui-même. Certains articles sont peut-être disponibles maintenant, je n’ai pas vérifié.


Le 30/03/2013 à 11h 44







marsokod a écrit :



Regarde surtout la dernière courbe de cet article ET les explications de texte, y compris du paragraphe en dessous concernant les incertitudes des mesures.



Les graphiques sont issus du rapport de l’IPCC et les commentaires ne sont que de la paraphrase dudit rapport ; autant lire l’original.







marsokod a écrit :



Donc tu penses que les données satellites sont torturées ?



Je ne pense pas, c’est un fait : les données thermométriques sont torturées ajustées pour coller aux données satellitaires, qui ne mesurent pas la température (proche) de surface.







marsokod a écrit :



Est-ce vraiment monotonique ? Regarde Law Dome



Autant tracer à partir des données originales. La résolution annuelle des carottes ne permet pas de discerner une quelconque variation de l’activité humaine et ressemble à la courbe de Mauna Loa (dont la résolution est bien supérieure).







marsokod a écrit :



Une corrélation implique une probabilité de lien entre deux événements.



Je t’invite à revoir la définition de tous ces termes. Ce que tu affirmes fait partie de la grande famille des sophismes et est plus particulièrement connu sous l’expression cum hoc ergo propter hoc.







marsokod a écrit :



C’est sympa de m’expliquer le transfert d’énergie par radiation. En plus du transfert par radiation, il y a aussi la conduction et la convection.



Oui et il est malheureux que les climato-catastrophistes de l’IPCC n’en aient pas tenu compte dans leurs hypothèses de départ : ils se seraient rendu compte que ces 2 modes de transport de la chaleur comptent autant dans le système que le mode radiatif.







marsokod a écrit :



Pour la fréquence, il y a beaucoup plus de fréquences que ça.



Je n’allais pas détailler ligne d’absorption par ligne d’absorption quand même ?!







marsokod a écrit :



Bizarre, ça absorde :http://jvarekamp.web.wesleyan.edu/CO2/FP-1.pdf



Grande découverte, je n’ai pas dit autre chose dans mon commentaire précédent. Cela en dit long sur ta compréhension de la différence entre un spectromètre et une “expérience cela soi” qui pourrait la mesurer en condition macroscopique (tout étant égal par ailleurs).







marsokod a écrit :



… Vénus …



Un mot qui fait envoyer l’aiguille de mon bullshitmeter dans le rouge destination “crackpot” sans autre possibilité de commentaire futur de ma part.


Le 30/03/2013 à 08h 58







HarmattanBlow a écrit :



Non, cet article ne dit rien des incroyables (au sens propre) erreurs que tu nous rapportais.







Désolé, Firefox empêche la copie de liens quand un PDF est ouvert en onglet. Je suis obligé de jongler avec des fenêtres et le lien illustrait donc un peu plus les déficiences des modèles.

Celui qui concerne la thermométrie est là (PDF).







HarmattanBlow a écrit :



Je n’avais lu que l’extrait que tu en rapportais, pas la page.



L’extrait que j’ai donné concerne autre chose, comme indiqué clairement. Si tu ne lis pas, ne t’étonnes pas de confondre.







HarmattanBlow a écrit :



Maintenant ta formulation initiale, en termes de “temps passé dans le système” laissait penser à la formulation historique de l’effet de serre (où les gaz auraient empêché le rayonnement de s’échapper) plutôt que la formulation moderne qui n’a plus rien à avoir avec les serres (énergie conservée entre l’absorption initiale et l’émission finale).



L’expression “temps passé dans le système” concerne la physique, pas l’Histoire. Si ce n’est que l’Histoire qui t’intéresse, l’expression “effet de serre” est de toute manière erronée telle qu’employée historiquement et maintenant : en effet l’effet de serre fonctionne en inhibant la convection, l’aspect radiatif est marginal. C’est pour cela que l’on emploie plutôt le terme “effet atmosphérique”.







HarmattanBlow a écrit :



Tu nous avais affirmé que le calcul de la sensibilité était masquée dans les rapports du GIEC, j’ai montré qu’il n’en était rien.



La sensibilité qui intéresse tout le monde est celle basée sur des données empiriques c’est à dire qui se rapproche le plus de ce qui se passe physiquement dans le système naturel, pas celles de modèles qui sont basés sur des suppositions de sensibilités exagérées (puisque l’hypothèse est que le CO2 est le principal gaz à ‘effet de serre’ et que l’H2O amplifie le système) pour fonctionner comme le souhaitent les modeleurs.







HarmattanBlow a écrit :



Après tu me donnes une liste d’articles utilisant d’autre modèles que l’IPCC et conduisant à d’autres valeurs de la sensibilité. C’est charmant mais l’IPCC fournit les valeurs soutenues par le plus grand nombre de modèles. Et ils recensent une cinquantaine de modèle entre 3K et 4K.



Après on peut toujours les accuser de partialité dans le choix des modèles, c’est gratuit.





Je ne vois qu’une Physique dans la Nature : le fait même qu’il existe plusieurs modèles pour essayer de l’expliquer ruine entièrement leur objet. Même si on les considère, faute de mieux, ce ne sont pas les modèles qui fournissent “entre 3K et 4K”, ce sont des runs (ces clowns appellent cela des expériences !) qui sont sélectionnés en ensemble pour coller au plus prêt des courbes de température historique (et au futur catastrophique requis pour alarmer et récolter d’avantage de financement).

Autant dire que les valeurs des résultats dépendent entièrement d’une sélection arbitraire (les résultats négatifs ne sont bien sûr jamais communiqués) : la meilleure illustration en est que que leur initialisation avec des données historiques (rétrodiction) donnent des résultats tellement divergents (le système naturel est contraint majoritairement par des boucles rétroactives négatives, sinon il ne serait pas stable), qu’ils sont paramétrés de manière ad hoc pour justement l’éviter (ce qui est compréhensible, ils n’ont pas la principale boucle naturelle de rétroaction négative, les nuages). On d’ailleurs lire dans le chapitre 7.2.2.4 intitulé “Cloud-radiative feedback processes” :



In response to any climate perturbation the response of cloudiness thereby introduces feedbacks whose sign and amplitude are largely unknown. The sign of the cloud cover feedback is still a matter of uncertainty and generally depends on other related cloud properties. Cloud optical feedbacks produced by these GCMs, however, differ both in sign and strength.


Le 29/03/2013 à 23h 44







HarmattanBlow a écrit :



Aurais-tu une source s’il te plaît ? Je voudrais lire le détail de l’histoire.





.







HarmattanBlow a écrit :



L’extrait que tu cites ne dis pas autre chose que ce que j’avais écrit.



Tu as seulement écrit le contraire : “Les théories modernes reposent peu ou pas sur l’effet de serre à papa.” alors que tout le chateau de carte de l’IPCC repose sur l’effet de serre. Mais apparemment dans ton système de valeur, c’est la même chose. Never mind.







HarmattanBlow a écrit :



Je me suis borné à une recherche de deux minutes sans lire le détail (faitgué, tout ça) mais voilà le résultat, pas caché du tout et allant de 3K à 4K selon les modèles.



Ah les modèles. Ce que j’en pense a été dit précédemment. Les modèles peuvent raconter ce que l’on veut bien leur faire dire, tunés comme ils sont. Il n’en reste pas moins que la sensibilité climatique est théoriquement calculée et empiriquement mesurée entre 1 et 1.5 degré C. Un peu de lecture à ce sujet (les sensibilités sont entre crochets) :



Spencer R.W. and Braswell W.D., 2010. On the diagnosis of radiative feedback in the presence of unknown radiative forcing. J. Geophys. Res. [~1 K]



Lindzen R.S. and Choi Y.-S., 2009. On the determination of climate feedbacks from ERBE data. Geophys. Res. Lett., 36. [~1 K]



Hoffert M.I. and Covey C., 1992. Deriving global climate sensitivity from paleoclimate reconstructions. Nature 360, 573-576. [&lt;&lt; IPCC]



Lindzen R.S. and Choi Y.-S., 2011. On the observational determination of climate sensitivity and its implications. Asia Pacific J. Atmos. Sci., 47, 377-390. [~1 K]



Spencer R.W. and Braswell W.D. On the misdiagnosis of surface temperature feedbacks from variations in earth’s radiant energy balance. Remote Sens. 2011, 3, 1603-1613. [~1 K]



Schwartz S.E., 2007. Heat capacity, time constant, and sensitivity of Earth’s climate system. Geophys Res. Lett. [1.1-2 K]



Shaviv N., 2008. On climate response to changes in the cosmic-ray flux and radiative budget. J. Geophys. Res. [1-1.7 K]



Paltridge G., Arking A. and Pook M., 2009. Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data. Theor. Appl. Climatol. [1 K]



Chylek, P., Lohmann U., Dubey M., Mishchenko M., Kahn R. and Ohmura A., 2007. Limits on climate sensitivity derived from recent satellite and surface observations. J. Geophys. Res., 112. [1-1.8 K]



Kiehl J.T. and Trenberth K.E., 1997. The Earth’s Radiation Budget. Bull. Am. Meteorol. Soc., 78, 197-208. [0.8-1.2 K]



Wentz F.J., Ricciardulli L., Hilburn K. and Mears C., 2007. How much more rain will global warming bring? SciencExpress. 31 May, 1-5. [~1 K]



Lindzen R.S., 2011. Climate v. Climate Alarm. Lecture to the American Chemical Society. Aug. 28. [0.8 K]



Santer B.D. et al., 2003. Contributions of anthropogenic and natural forcing to recent tropopause height changes. Science, 301, 479–483. [~1 K]



Douglass D.H. and Christy J.R., 2009, Limits on CO2 climate forcing from recent temperature data of Earth. Energy & Environment 20:1-2, 177-189. [1.1 K]



Loehle C. and Scafetta N., 2011. Climate change attribution using empirical decomposition of climatic data. Open Atmos. Sci. J. 5, 74-86. [1-1.5 K]



Blasing T.J., 2011. Recent greenhouse-gas concentrations. 2011 August,http://cdiac.ornl.gov/pns/current_ghg.html [1-1.5 K]



Hansen J., Lacis A., Rind A., Russell G., Stone P., Fung I., Ruedy R. and Lerner J., 1984. Climate sensitivity: analysis of feedback mechanisms. Meteorological Monographs, 29, 130-163. [1.4 K]



Douglass D.H. and Knox R.S., 2005. Climate forcing by the volcanic eruption of Mount Pinatubo. Geophys. Res. Lett. 32. [0.67 K]

http://arxiv.org/ftp/physics/papers/0509/0509166.pdf



Forster P.M.F. and Gregory J.M., 2005. The Climate Sensitivity and Its Components Diagnosed from Earth Radiation Budget Data. Journal of Climate, 19, 39-52. [1.3 K]

http://journals.ametsoc.org/doi/pdf/10.1175/JCLI3611.1



Soden B.J., Wetherald R.T., Stenchikov G.L. and Robok A., 2002. Global Cooling After the Eruption of Mount Pinatubo: A Test of Climate Feedback by Water Vapor. Science, 296, 727-730 [1.5 K calculated]

http://climate.envsci.rutgers.edu/pdf/SodenPinatubo.pdf



Gregory J.M., Stouffer R.J., Raper S.C., Stott P.A. and N.A. Rayner, 2002. An observationally-based estimate of the climate sensitivity. J. Clim. 15, 3117-3121. [&lt;&lt; IPCC]



Chylek P. and Lohman U., 2008. Aerosol radiative forcing and climate sensitivity deduced from the last glacial maximum to Holocene transition. Geophys. Res. Lett. 35. [&lt;&lt; IPCC]



Idso, S.B., 1998. CO2-induced global warming: a skeptic’s view of potential climate change. Clim. Res. 10, 69-82. [&lt;&lt; IPCC]



Monckton of Brenchley C., 2008. Climate Sensitivity Reconsidered. Physics and Society, 37:3, 6-19. [&lt;&lt; IPCC]



Knorr G., Butzin M., Micheels A. and Lohmann G., 2011. A Warm Miocene Climate at Low Atmospheric CO2 levels. Geophys. Res. Lett., in press. [1.15 K]



Lewis N., 2012. Improved methodology for applying optimal ?ngerprint techniques to estimate climate sensitivity, Journal of Climate, submitted. [1.3 K]



M. W. Asten, 2012. Estimate of climate sensitivity from carbonate microfossils dated near the Eocene-Oligocene global cooling. Clim. Past Discuss., 8, 4923–4939. [0.8-1.5 K]



Gillett N. P., Arora V. K., Flato G. M., Scinocca J. F., and von Salzen K., 2012. Improved constraints on 21st-century warming derived using 160 years of temperature observations, Geophys. Res. Lett., 39, L01704. [1.3-1.8 K]


Le 29/03/2013 à 23h 30







marsokod a écrit :



Je t’invite à aller voir là, article sourcé :http://www.manicore.com/documentation/serre/commence.html





Cela n’a pas de sens (ie c’est non scientifique) de comparer des périodes comme l’a fait l’IPCC (pourquoi n’ont-ils pas pris la période 1940-1970 par ex.). Si tu veux comparer la période actuelle (jaune) avec les périodes qui ont précédé (ce qui était mon point) autant le faire correctement : les périodes de réchauffement 1860-1880 et 1910-1940 ont la même pente. QED.







marsokod a écrit :



Manque de bol, les mesures faites au sol sont correllées avec des mesures satellites globales. Ce lien montre la différence de valeur entre les deux :http://www.appinsys.com/GlobalWarming/SatelliteTemps.htm Je te laisse conclure sur l’effet du “biais” dont tu parles.



Je ne doute pas qu’à force d’ajustements, on puisse torturer les données pour leur faire avouer ce que l’on veut.







marsokod a écrit :



J’ai pas compris ta phrase. Que veux-tu dire ? Mets-tu en question un lien entre la hausse de CO2 dans l’atmosphère et l’activité humaine ?



Je dis que les mesures (Mauna Loa par ex.) du CO2 ne reflètent pas (les variations de) l’activité humaines parce qu’elles sont trop monotoniques. Elles ressemblent plutôt au relargage constant (à la saison près) d’un puits (les océans probablement).







marsokod a écrit :



Si tu as des sources je suis preneur.



Une corrélation n’implique pas de lien de cause à effet. Pas besoin de source pour comprendre cela.







marsokod a écrit :



La théorie ne dit pas ça. La théorie, qui est scientifiquement prouvée, c’est que le CO2 absorbe plus les rayonnement infrarouges. Conclusion : lorsqu’un milieu contient une concentration plus élevée de CO2, ce milieu absorbe mieux les rayonnements infrarouges extérieurs.



C’est la version Paris Match ça.

La version scientifique est la suivante : dans une colonne d’atmosphère de 1m de diamètre et 10km de haut, seule une petite partie du CO2 absorbe effectivement les radiations venue de la surface : en 1 seconde par ex. l’énergie venant d’un m² de sol est absorbé entièrement par seulement 3 mètre (cube) d’atmosphère. Le fait d’augmenter le nombre de molécule de CO2 ne fait qu’augmenter la probabilité que les radiations soient absorbées (plus près de la surface). Ce qui fait que le nombre de molécules de CO2 qui peut absorber ne dépend que des radiations émises par la surface qui elles-mêmes ne dépendent que de l’insolation.

Point 1 : les radiations sont absorbées à une très faible hauteur (typiquement &lt; à 10m).



Il existe physiquement 3 processus de dé-excitation : ré-émission de photon, déplacement, ou collision. On peut calculer la fréquence (càd la probabilité) de survenue de chacun de ses processus dans le cas du CO2 (je t’épargne les calculs) : la ré-emission a une fréquence de 300000 Hz, le déplacement de 30000000 Hz et la collision de 5000000000 Hz. Interprété en terme de probabilité à température ambiante, la probabilité qu’une molécule de CO2 perde son énergie par collision est 4 ordres de grandeur supérieure à la probabilité qu’elle la perde par radiation (émission de photon). L’énergie d’excitation est donc convertie en énergie cinétique (une température que l’on peut mesurer). Au fur et à mesure que les collisions augmente le système atteint un pseudo-équilibre par un processus qu’on appelle thermalisation et qui correspond à la redistribution rapide de l’énergie à travers le système (H20, N2 et CO2 principalement) et dans lequel la probabilité de collisions subséquentes diminue rapidement : c’est ce que l’on pourrait appeler l’effet (de serre) atmosphérique.

Point 2 : l’effet (de serre) atmosphérique dépend de mécanismes physiques, pas de la composition de l’atmosphère.



On peut montrer par le calcul que, dans un tel système, le nombre de molécule de CO2 possédant suffisamment d’énergie pour perdre un photon avec une longueur d’onde correspondant à la bande de fréquence d’absorption (typiquement 15 µm) est très faible. La part marginale qui réémet ce photon le fait 50% vers la surface, 50% vers l’espace, mais comme le nombre de molécules de CO2 non excitées est bien plus important (le système n’est pas saturé), le photon en route vers la surface est instantanément réabsorbé et thermalisé par collision. On peut aussi montrer que la distance théorique parcourue par ce photon avant d’être réabsorbé est inférieur au rayon d’un noyau (ie il est ré-absorbé aussi vite qu’il a été émis).

Point 3 : il n’y a pas de radiation qui reparte vers la surface pour la chauffer à nouveau, ce que nous enseigne exactement la thermodynamique : les flux de chaleur passif s’écoulent du chaud vers le froid (surface vers atmosphère), pas le contraire.



Seuls les photons en dehors de cette fréquence pourront être renvoyés 50% vers l’espace et 50% vers la surface parce que l’atmosphère leur est transparente. Les mécanismes d’interaction entre un photon incident à longueur d’onde longue et la surface est la ré-émission d’un photon identique (ou de 2 photons par diffusion Raman) directement par transition instantanée ou indirectement par conversion d’énergie cinétique en énergie électromagnétique. Quantitativement, le nombre total de ces photons à basse fréquence ne dépend que du nombre total de photons émis par la surface, et donc de l’insolation. Donc ajouter du CO2 ne va pas modifier le nombre de photons réémis. Au fur et à mesure que le soleil s’élève, la surface devient plus chaude, et l’atmosphère à la verticale chauffe aussi, mais moins vite. Le gradient qui en résulte permet la mise en route d’un mécanisme de transport de chaleur (qu’on appelle convection) à travers le gradient de pression déclinant que constitue l’atmosphère. Plus la hauteur atteinte est élevée plus le nombre de molécules diminue, ainsi que la fréquence de collision : la probabilité de ré-émission de photons augmente, les conduisant vers l’espace (la probabilité de ré-émission augmente donc quand l’air s’élève, mais comme les couches immédiatement inférieures sont plus denses, les photons ré-émis vers le bas sont instantanément réabsorbés).



Les analyses théoriques et spectrométriques montrent que la ré-émission de l’énergie stockée dans une molécule de CO2 n’est pas nulle mais est très faible aux températures présentes. Comme cette énergie est convertie en énergie cinétique, on peut estimer par le calcul que toute cette énergie est absorbée dans les 10 premiers mètres de l’atmosphère (par la loi de Beer-Lambert). Plus finement, en raisonnant par couche de molécules, en supposant que le CO2 est distribué au hasard et mixé de façon homogène (les supposition IPCC), on peut calculer qu’il ne faut que 5 couches d’1m² de molécules de CO2 (à 15 degré C) pour absorber la totalité des radiations émises par la surface, soit entre 3 et 4 m de hauteur. Donc au fur et à mesure que le nombre de molécules de CO2 augmente, la probabilité que le CO2 soit excité augmente aussi (à la même altitude). Mais comme quasiment toutes les radiations provenant de la surface sont absorbées dans les premiers mètres au-dessus de celle-ci, le nombre total de molécules de CO2 excitées ne sera pas modifié, ce qui n’a aucun effet sur le nombre de radiations à longueur d’onde longue renvoyées vers la surface. Comme l’atmosphère est transparente à ces fréquences, la hauteur à laquelle le renvoi survient n’aura pas d’effet sur le nombre total de radiations retournées vers le sol.

Point 4 : la concentration en CO2 n’a pas d’influence sur la quantité d’énergie contenue dans le système.



Conclusion : les gaz atmosphériques agissent comme un conduit pour évacuer l’énergie captée initialement par certains gaz dans l’atmosphère. L’énergie circule indépendamment du nombre de molécules dans le système. A aucun moment les molécules ne sont toutes excitées, et une augmentation de leur nombre réduit seulement la hauteur à laquelle les radiations sont absorbées. Cela n’altère en rien le nombre total de molécules excitées et n’a pas d’effet sur la proportion de radiation de la bande de fréquences correspondant à fenêtre transparente de l’atmosphère. Cela n’a pas non plus de conséquence sur la proportion ou la quantité de radiations ré-émises vers la surface.



On montre donc clairement que n’importe quel gaz (H2O, CO2 ou autres) avec une ligne ou une bande d’absorption dans les limites spectrales du champ radiatif de la surface terrestre chauffée sera capable de contribuer à augmenter sa température. Il est aussi très clair qu’après avoir atteint un certain seuil de densité de gaz atmosphérique, qui est nettement plus faible que celui actuel, il n’y aura plus de nouvelle augmentation de température de cette source, quel que soit l’augmentation future de sa densité.



Ces conclusion ne sont que les conséquences des lois de la physique radiative.







marsokod a écrit :



Si tu tiens à expérimenter cela toi même c’est très facile : tu prends deux enceintes transparentes, l’une contenant du CO2 l’autre de l’azote. Tu pointes sur chacune de ces deux enceintes un lampe infrarouge et tu mesures l’augmentation de la température. Cela augmentera plus vite dans l’une d’entre elle.



Je t’invite à le faire toi-même : les scientifiques n’ayant jamais réussi à le démontrer empiriquement, je préfère te laisser perdre ton temps plutôt que le mien.



A propos des modèles, le mieux est encore de citer l’IPCC lui-même :



We fully recognize that many of the evaluation statements we make contain a degree of subjective scientific perception and may contain much ‘community’ or ‘personal’ knowledge. For example, the very choice of model variables and model processes that are investigated are often based upon subjective judgment and experience of the modeling community. … In climate research and modeling, we should realize that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible.



, la même critique par des scientifiques extérieurs au cénacle.

ou des exemples (parmi d’autres) qui montrent les déficiences des modèles.



Bon, j’arrête ici.


Le 29/03/2013 à 20h 03

Double post.

Le 29/03/2013 à 20h 00

Double post.

Le 29/03/2013 à 19h 51







HarmattanBlow a écrit :





  1. A peine





    Hummm : 0.4°C d’augmentation ? I’m scared to death! (voir ci-dessous).







    HarmattanBlow a écrit :



  2. Toutes les mesures ont été faîtes dans les aéroports ou autres ? Bigre ! Bon, soyons sérieux, les relevés existent au niveau de la terre, des mers, sous la surface des mers et dans les différentes strates de l’atmosphère. Pour des raisons bien compréhensibles certaines données sont plus lacunaires que d’autres, notamment dans les archives, mais affirmer qu’on n’a pas de données c’est grossier.





    Toutes ? Qui a dit toutes ? Pas moi. J’ai dit “biaisées” et mal “situés” : aux USA, qui ont l’un des meilleurs et plus anciens réseaux de thermométrie, une analyse systématique des sites a montré qu’un peu moins de 8% de ceux-ci sont aux normes (avec une erreur &lt;1°C), 64% ont une erreur de plus de 2 °C et plus de 6% une erreur supérieure 5°C. Je ne sais pas comment on peut obtenir des moyennes de températures fiables et crédibles avec des données erronées.







    HarmattanBlow a écrit :



  3. Les théories modernes reposent peu ou pas sur l’effet de serre à papa. La composition de l’atmosphère influe aussi sur l’albédo des océans, les formations nuageuses, etcétéra.





    Tsk, tsk : tu n’as pas lu la bible. Mauvais alarmiste va !



    Si tu lis bien, tu peux même trouver quel est le mécanisme qui auto-régule le climat sur terre :

    Additional important feedback mechanisms involve clouds. Clouds are effective at absorbing infrared radiation and therefore exert a large greenhouse effect, thus warming the Earth. Clouds are also effective at reflecting away incoming solar radiation, thus cooling the Earth. A change in almost any aspect of clouds, such as their type, location, water content, cloud altitude, particle size and shape, or lifetimes, affects the degree to which clouds warm or cool the Earth. Some changes amplify warming while others diminish it.





    Ailleurs dans le rapport, tu peux aussi trouver quel est le mode de stockage et relargage retardé de l’énergie du flux solaire incident (les océans et leurs cycles, ENSO, PDO, NAO), que la sensibilité au doublement de CO² est 1°C (le résultat n’est pas fournis, tu dois le calculer toi-même avec les chiffres éparpillés ça et là), que les incertitudes sur les rétroactions sont telles qu’ils ont été obligés de redéfinir subjectivement les statistiques (“expert judgment”), etc



    En fait (presque) toutes les clés pour appréhender le système climatique sont dans le rapport, simplement elles sont noyées dans un brouhaha et verbiage abscons de telle manière qu’elles ne forment pas un contenu intelligible : elles ne sont pas la “bonne histoire”, celle soutenue a priori par les alarmistes à visée politique.


Le 29/03/2013 à 19h 50







HarmattanBlow a écrit :





  1. A peine





    Hummm : 0.4°C d’augmentation ? I’m scared to death! (voir ci-dessous).







    HarmattanBlow a écrit :



  2. Toutes les mesures ont été faîtes dans les aéroports ou autres ? Bigre ! Bon, soyons sérieux, les relevés existent au niveau de la terre, des mers, sous la surface des mers et dans les différentes strates de l’atmosphère. Pour des raisons bien compréhensibles certaines données sont plus lacunaires que d’autres, notamment dans les archives, mais affirmer qu’on n’a pas de données c’est grossier.





    Toutes ? Qui a dit toutes ? Pas moi. J’ai dit “biaisées” et mal “situés” : aux USA, qui ont l’un des meilleurs et plus anciens réseaux de thermométrie, une analyse systématique des sites a montré qu’un peu moins de 8% de ceux-ci sont aux normes (avec une erreur &lt;1°C), 64% ont une erreur de plus de 2 °C et plus de 6% une erreur supérieure 5°C. Je ne sais pas comment on peut obtenir des moyennes de températures fiables et crédibles avec des données erronées.







    HarmattanBlow a écrit :



  3. Les théories modernes reposent peu ou pas sur l’effet de serre à papa. La composition de l’atmosphère influe aussi sur l’albédo des océans, les formations nuageuses, etcétéra.





    Tsk, tsk : tu n’as pas lu la bible. Mauvais alarmiste va !



    Si tu lis bien, tu peux même trouver quel est le mécanisme qui auto-régule le climat sur terre :

    Additional important feedback mechanisms involve clouds. Clouds are effective at absorbing infrared radiation and therefore exert a large greenhouse effect, thus warming the Earth. Clouds are also effective at reflecting away incoming solar radiation, thus cooling the Earth. A change in almost any aspect of clouds, such as their type, location, water content, cloud altitude, particle size and shape, or lifetimes, affects the degree to which clouds warm or cool the Earth. Some changes amplify warming while others diminish it.





    Ailleurs dans le rapport, tu peux aussi trouver quel est le mode de stockage et relargage retardé de l’énergie du flux solaire incident (les océans et leurs cycles, ENSO, PDO, NAO), que la sensibilité au doublement de CO² est 1°C (le résultat n’est pas fournis, tu dois le calculer toi-même avec les chiffres éparpillés ça et là), que les incertitudes sur les rétroactions sont telles qu’ils ont été obligés de redéfinir subjectivement les statistiques (“expert judgment”), etc



    En fait (presque) toutes les clés pour appréhender le système climatique sont dans le rapport, simplement elles sont noyées dans un brouhaha et verbiage abscons de telle manière qu’elles ne forment pas un contenu intelligible : elles ne sont pas la “bonne histoire”, celle soutenue a priori par les alarmistes à visée politique.


Le 29/03/2013 à 17h 23







Drepanocytose a écrit :



OK. Avec des mots simples tu dis que c’est con d’avoir arrêté superphénix.



Bah, la filière se rattrapera avec le sel de thorium fondu….





Je ne dit rien de cela. Superphénix a été à la base développé parce qu’on croyait que les disponibilités en uranium était faible et que son prix allait donc augmenter notablement dans l’avenir. Comme les malthusiens ont toujours tort (ils ne savent pas ce qu’est une ressource), Superphénix a fini comme la risée de la filière nucléaire française.

A sa décharge, il aurait pu être rentable si les bureaucrates et les imbéciles ignares n’avaient pas pris le pouvoir dans ce pays.


Le 29/03/2013 à 17h 11







Drepanocytose a écrit :



C’est pas ca qu’on appelle un surgénérateur (vraie question) ?

Ou réacteur à Neutrons Rapides, ou réacteur breeder ?





Oui, c’est ça : IFR = Integral Fast Reactor.


Le 29/03/2013 à 17h 10







tmtisfree a écrit :



… on peut calculer que plutôt que le temps, c’est le niveau à partir duquel le rayonnement s’échappe vers l’espace qui est modifié ; ce qui fait que la quantité d’énergie qui appartient au système à un instant t pour une concentration donnée de CO² ne sera pas différente de n’importe quelle autre plus tard







Correction : remplacer ‘niveau’ par ‘altitude’ pour une meilleure compréhension.


Le 29/03/2013 à 17h 03







Drepanocytose a écrit :



(vraie) question : tu la récupères comment cette énergie résiduelle ?

Sous-entendu, sans un surgénérateur ?





C’est (c’était) le but des réacteurs de type IFR de recycler cette énergie. C’est assez bien expliqué ou dans le lien d’article de Science que j’ai donné plus haut.


Le 29/03/2013 à 16h 54







HarmattanBlow a écrit :



Il ne t’es pas venu à l’idée de replacer la discussion dans le cadre des déchets vitrifiés ? Tu sais, cette forme de conditionnement chargée d’empêcher la dispersion pendant les premiers millénaires, jusqu’à ce que la désintégration des éléments les plus actifs soit bien avancée ?





Mr est opaque au sarcasme : too bad.

Vitrification ? La technique qui consiste à gaspiller des ressources qui contiennent encore 95-99% d’énergie ?


Le 29/03/2013 à 16h 49







yvan a écrit :



L’arnaque? Là c’est pareil, en dehors des quelques FUD type Cabrol et Alègre et du poids des relations publiques du business pétrole aux USA on ne voit pas trop l’arnaque je trouve.



Enfin si l’arnaque elle est dans le sérieux des solutions trouvées/proposées et dans le fait de considérer qu’on peut inverser la tendance par l’action politique mais sur le fond l’énoncé qu’il y a un réchauffement climatique anormalement rapide ne semble pas vraiment contredite (je pense comprendre que c’est ça que tu qualifies d’arnaque).





L’arnaque, elle est dans les faits que :

1/ les températures (ou leur accélération) ne sont pas différentes de ce qu’elles ont pu être précédemment ;

2/ les mesures thermométriques qui existent sont biaisées (UHI, mesure dans les aéroports, etc, etc) et ne tiennent pas compte des océans (qui forment les 34 de la surface) et sont bizarrement toujours corrigées à la hausse dans le présent ou à la baisse dans le passé ;

3/ les mesures de CO² ne reflètent pas les variations des activités humaines, que reflètent-elles alors ?

4/ la corrélation (qui a disparu depuis une décade et demi) entre CO² et température n’est pas une causalité ;

5/ la théorie dit que le CO², tout étant égal par ailleurs, augmente très légèrement le temps de sortie du système atmosphérique du rayonnement à grande longueur d’onde : cela n’a jamais été montré empiriquement et tout n’est jamais égal par ailleurs dans la Nature ; on peut calculer que plutôt que le temps, c’est le niveau à partir duquel le rayonnement s’échappe vers l’espace qui est modifié ; ce qui fait que la quantité d’énergie qui appartient au système à un instant t pour une concentration donnée de CO² ne sera pas différente de n’importe quelle autre plus tard ;

6/ les modèles climatiques sont basés (entre autres) sur les équations des fluides (Navier-Stokes) qu’on ne sait pas résoudre : ils sont donc approximés. Le système étant spatio-temporellement chaotique, les erreurs se propagent plus vite que les données et les modèles doivent donc être contraints par des paramètres qui sont laissés au bon vouloir du modeleur : pas très scientifique ;

7/ pour contourner le problème, des ensembles de runs de modèles sont choisis selon des critères qui ne sont jamais définis pour faire des moyennes, ce qu’on appelle en langage IT : GIGO ;

8/ ces modèles ne sont jamais vérifiés (bogues, conforme aux spécs.) et encore moins validés (reproduction, rétrodiction, postdiction, etc) : tout ingé qui se respecte en rigole encore ;

9/ la sensibilité climatique a été calculée aux environs de 1 à 1.5 °C pour un doublement du CO², pas de quoi hurler à la catastrophe ; elle varie suivant l’espace et le temps, elle dépend donc des conditions de mesure ;

10/ je pourrais continuer sur des pages.



Par infos, je ne suis pas climato-sceptique (quel bouffon irait affirmer que le temps/climat ne change pas alors que c’est sa principal caractéristique), je suis septique tout court (comme tout scientifique qui se respecte).


Le 29/03/2013 à 15h 40







yvan a écrit :



Avec son lobbying de dictature bananière et de prestidigitateurs il est possible que la filière nucléaire se soit brulé les ailes pour plusieurs années c’est ptêt juste ça.





Le domaine où je suis certain que les pro-nucléaire se sont “brulé les ailes” comme tu dis, c’est en soutenant l’arnaque du réchauffement climatique. Pour le reste, ce sont des marchands de tapis comme les autres (et je ne vois pas de mal à ça).


Le 29/03/2013 à 15h 36







HarmattanBlow a écrit :



Je ne connais pas trop le problème mais de ce que j’en sais ils ne sont pas particulièrement toxiques (hors radioactivité) et se désintègrent assez rapidement. A part leurs éventuels effets délétères sur la durée de vie du verre et bien…





Je propose de monter une association de défense du verre sous contrainte radioactive : sans son consentement, c’est une atteinte inacceptable à ses propriétés naturelles. Il faut sauver le verre.


Le 29/03/2013 à 15h 31







maestro321 a écrit :



Ca passe par exemple par une restructuration complète du modèle agricole mondialisé qu’on à aujourd’hui.



Les denrée qui peuvent être produite sur place doivent être produite sur place, ce serais un énorme gain énergétique (transport, transformation, perte etc..).

Mais la logique est à acheter moins chère même si c’est au l’autre bout du monde alors on est pas près de faire des économies là où il y en a vraiment besoin.



Même les groupes politiques dit “écolo” n’abordent pas/peu la question et se contentent de nous rabâcher qu’il faut du renouvelable.





Ah, le locavorisme, le nouveau crédo des enviros à œillères. Quand on sait que la cuisinière représente à elle seule 13 de toutes les dépenses énergétiques liée à l’alimentation dans les ménages aisés (càd où l’appareillage est efficient) et le double dans tous les autres, le locavorisme apparait une fois encore comme une non-solution à un non-problème.



Les éco-crackpots sont vraiment les champions toutes catégories de l’enfumage.


Le 29/03/2013 à 15h 20







maestro321 a écrit :



Je vais te citer pour illustrer tes propos :





Je ne mélange pas les torchons et les serviettes.


Le 29/03/2013 à 10h 28







maestro321 a écrit :



Probablement oui. <img data-src=" />



IAEA -&gt;lobby nucléaire

FAO -&gt; lobby agroalimentaire

Banque mondial (elle s’y connait en nucléaire maintenant ?)



Le reste c’est associé à l’ONU



Très peu d’indépendance dans tout ça…





Et c’est moi qu’on accuse de conspirationniste <img data-src=" />



Personnellement, avant de clouer au pilori tel ou tel organisation avec des positions à l’emporte-pièce comme la tienne, j’approfondis d’abord la question et j’exerce ensuite mon sens critique.



Par ex., autant le rapport de l’IPCC au sujet du climat est un ramassis de non-dits dictés par les ONG/politiciens pro-enviros (le résumé pour les décideurs a été écrit avant le rapport lui-même), autant le rapport SREX du même IPCC est tout à fait acceptable parce qu’il correspond à l’état de la Science actuelle.


Le 29/03/2013 à 10h 21







Drepanocytose a écrit :



J’avais pas mis les guillemets pour rien.



Une preuve de plus qu’il faut se méfier avec les questions “définitvement réglées”, sur le CO2 comme sur le nucléaire…





Tes guillemets pouvaient être interprétés de diverses manières.



A la différence du climat où la question sur la sensibilité reste entière, celle sur l’accident nucléaire passé a été traitée sur le fond, même si dans le futur rien ne dit que qu’une autre étude viendra affiner, a posteriori, le nombre de cas réel de décès dû aux radiations. Pour l’instant il est minime, et je m’en tiens là.


Le 28/03/2013 à 21h 49







Drepanocytose a écrit :



Il me semblait que le GIEC avait “définitivement réglé” la question….





Déréglé serait plus approprié.


Le 28/03/2013 à 21h 44







maestro321 a écrit :



A bha oui, une étude réalisé en toute indépendance par l’AIEA.





Si tu cites, autant le faire non sélectivement :



The Forum is made up of 8 UN specialized agencies, including the International Atomic Energy Agency (IAEA), World Health Organization (WHO), United Nations Development Programme (UNDP), Food and Agriculture Organization (FAO), United Nations Environment Programme (UNEP), United Nations Office for the Coordination of Humanitarian Affairs (UN-OCHA), United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR), and the World Bank, as well as the governments of Belarus, the Russian Federation and Ukraine.



Tous des menteurs, probablement.


Le 28/03/2013 à 21h 42







T.I.N.A. a écrit :



Tiens donc.



Je croyais, au dire des climatosceptiques, qu’il n’y avait aucun excès de gaz carbonique d’origine anthropique dans l’atmosphère.



J’ai dû être mal informé…





La question n’est pas vraiment réglée. Quelque soit sa provenance, cela ne modifie pas mon affirmation.


Le 28/03/2013 à 21h 26







maestro321 a écrit :



Du coup, je veux bien la source.



Tu l’as déjà rejeté préemptivement sans probablement l’avoir lu, une caractéristique très peu scientifique.


Le 28/03/2013 à 21h 09







maestro321 a écrit :



“L’Académie des Sciences de New York a publié un ouvrage sur les conséquences sanitaires et environnementales de la catastrophe de Tchernobyl”



Ce n’est pas une source digne d’intérêt à tes yeux?



De plus ton document date de 98 je doute qu’il prenne en compte cet ouvrage de 99.



Cette question a été définitivement réglée en 2005 par des professionnels du monde entier. Je doute que qui que ce soit ait fait mieux depuis.

Le document a été mis à jour en 2001 et 2010.


Le 28/03/2013 à 20h 54







maestro321 a écrit :



Bha, justement parlons-en du nombre de morts lié au nucléaire…

J’espère que ta source n’a pas utilisé les chiffres fournis par l’OMS ou de l’AIEA pour faire cette étude?



http://groupes.sortirdunucleaire.org/Tchernobyl-un-million-de-morts



Et toi tu peux bien sûr utiliser les chiffres bidons d’un groupe de militants extrémistes anti-nucléaires aujourd’hui, anti-autre-chose demain. Bonne lecture.


Le 28/03/2013 à 20h 33







Drepanocytose a écrit :



Pas tout à fait :

On peut faire du charbon seul, mais on ne pourra pas faire du nucléaire sans charbon.





Je n’ai pas dit le contraire, mais c’est un homme de paille. D’ailleurs on utilise plutôt le gaz en France et la proportion est faible. Cela ne change rien au résultat.



Il est moins dangereux de vivre à proximité d’une centrale nucléaire que d’enfourcher sa bicyclette.


Le 28/03/2013 à 20h 24







HarmattanBlow a écrit :



Le nucléaire est un risque. Le CO2 est un danger certain.





Les végétaux protestent en masse de cet alarmisme anthropique et sont heureux du gain de productivité dont ont profité les humains du fait de leur développement accéléré qui verdit (au sens noble) la planète du fait du relargage inespéré de leur nutriment préféré dans l’atmosphère par ces derniers au cours du siècle passé.


Le 28/03/2013 à 20h 12







maestro321 a écrit :



Le jour où le nucléaire représentera une source d’énergie aussi importante que le charbon on reparlera du nombre de mort d’accord?





Pas d’accord. Le nucléaire fournit environla moitié de ce que fournit le charbon au niveau mondial, ils sont donc directement comparables.



Et il se trouve que ramené au TeraWatt/année, le nombre de morts attribué au charbon est 43 fois plus élevé que celui du nucléaire, la pire étant la production hydroélectrique avec 110 fois plus de morts).


Le 28/03/2013 à 19h 49







HarmattanBlow a écrit :



Quelle futures ressources ? Depuis tout à l’heure je te parle de ce qui est mis en exploitation aujourd’hui, pour lesquelles les dépenses sont déjà engagées, avec des coûts plus élevés qu’auparavant qu’il faudra bien amortir, quand bien même tout ça deviendrait obsolète demain. Je ne dis pas autre chose que ce que tu vois les rapports de Total, qui n’est pas particulièrement réputé pour être un khmer vert ou un alarmiste.



Et je dis simplement que les conditions qui prévalent aujourd’hui (extraire tous ces minerais et produits énergétiques qui sont économiquement rentables actuellement) ne préjugent en rien de celles qui prévaudront demain (parce que une façon saine de mener un business est de faire un prévisionnel, ce que le EREOI ne permet pas puisqu’il n’intègre pas de notion de temps). De plus je t’ai déjà montré auparavant que ta position sur les “coûts plus élevés qu’auparavant” est séculairement erronée pour les métaux et la plupart des minerais. Tes prémisses sont donc fausses.







HarmattanBlow a écrit :



J’ai moi-même mentionné les 4ème génération auparavant mais en faire un Saint-Graal c’est déraisonnable. D’abord la filière a trouvé son essor à l’époque de la flambée de l’uranium et a cessé d’apparaître rentable une fois les cours redescendus. Ce à quoi il faut ajouter pour les USA (puisque tu parles de l’IFR), les oppositions démocratiques et un environnement juridique plus incertain du fait des possibles conséquences financières d’un accident pour une société privée.



La filière n’a jamais “trouvé son essor” puisqu’elle n’a jamais existé commercialement. Les recherches faites l’ont été pour sortir le nucléaire de sa voie militaire, l’arrêt définitive des recherches en 1994 par l’administration Clinton s’étant faite à quasiment le plus bas prix historique de l’uranium en dépit des manipulations précédentes (1970-1980) par les gouvernements US successifs.


Le 28/03/2013 à 18h 04







Commentaire_supprime a écrit :



Pour la dernière phrase, je pense que tu nous montreras par l’exemple que tu appliques ce judicieux conseil.





Rien de tel que de conclure par des enfantillages.


Le 28/03/2013 à 17h 39







Commentaire_supprime a écrit :



Je ne suis pas spécialiste en physique nucléaire contrairement à toi. Je suis géographe de formation. Et avoir la réponse à cette question sans savoir quoi chercher, c’est pas évident…



Éviter de prendre les gens pour des cons, c’est sans doute une opération au-dessus de tes capacités…





Je ne suis pas ‘un’ spécialiste non plus, mais je sais chercher et creuser quand le sujet m’intéresse : il y a une discussion dans cet article (PDF) des avantages comparatifs du sodium et du plomb.



Le reste du commentaire est à la mesure de son auteur. Tu devrais essayer de suivre tes propres conseils passés dans le futur : cela m’évitera d’avoir à faire le travail à ta place.


Le 28/03/2013 à 17h 26







Commentaire_supprime a écrit :



Lequel ? Le mercure ?

Du concret STP, pas du blabla digne d’un ignare à l’idéologie pathologiquement surdimensionnée. T’as le bagage scientifique pous cela d’après ce que tu nous dis, je ne pense pas que tu te priveras d’apporter des arguments rationnels et non idéologiquement orientés à ton point de vue.





Tout ce qui n’absorbe pas ou peu les neutrons (plomb, bismuth, mélange des 2, etc). “Googler” est apparemment une opération au-dessus de tes capacités. <img data-src=" />


Le 28/03/2013 à 17h 01







Commentaire_supprime a écrit :



Dis-moi quelles sont les conséquences d’un feu de plusieurs dizaines de tonnes de sodium et on en reparle. Sachant que cet élément a la fâcheuse tendance à péter à la moindre trace d’humidité dans l’air…





On peut utiliser un autre métal, mais le rendement chutera. Cela dit, j’ai donné mon point de vue précédemment.

Note aussi que si un temple de l’alarmisme climatique comme Science est capable de publier un article vantant les mérites de l’IFR pour lutter contre la supposée future catastrophe potentiellement pas sûre, alors tout tout être mis en œuvre pour ce faire, right?


Le 28/03/2013 à 16h 44







Commentaire_supprime a écrit :



T’as oublié de dire que dans le cadre de l’IFR, le coeur du réacteur était plongé dans une piscine de sodium liquide pur.



Pour la sécurité, il y a mieux.





Je ne suis pas un adepte de la sécurité 0 qui n’existe pas. Pour ma part, c’est un point tout à fait mineur au regard des autres avantages : réutilisation des déchets actuels, peu/pas de déchets ultimes, pas d’application militaire, pas de risque de dissémination, simplification, coûts relativement faibles, rendement de quasi 100%, combustible virtuellement infini, sécurité passive, etc.