votre avatar Abonné

marsokod

est avec nous depuis le 5 mai 2008 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

142 commentaires

Power Sleep de Samsung : le calcul distribué effectué pendant votre sommeil

Le 19/02/2014 à 14h 28

Ça me rappelle un projet que j’avais présenté à un concours GMES : une appli pour smartphone permettant de distribuer les calculs de météo en P2P de façon geolocalisée, de manière à diminuer le maillage, et donc d’augmenter la qualité de la prévision, en fonction du nombre de clients disponibles dans une zone. Le tout avec un feed possible de donnée au sol venant des stations météo bluetooth.


Kickstarter victime d'une attaque, mais aucune information bancaire dérobée

Le 17/02/2014 à 11h 05

Le caractère + c’est bien pour identifier d’où vient le spam plus tard mais niveau sécurité c’est vraiment sans aucun effet. À partir du moment où t’as le mot de passe en clair, ça coûte pas beaucoup plus de tester les adresses dans leur format original et dans leur format nettoyé.
Bon là je suis passé d’un mot de passe aléatoire d’une vingtaine de caractères à un autre de plus de 40 caractères, je pense que j’ai été sage pendant les quelques jours ou personne n’a réagit. Vive keepass !!


Mediapart porte plainte après avoir été victime d'une attaque informatique

Le 10/04/2013 à 14h 19






bbbbben a écrit :

C’est ta banque qui donne une autorisation de prélever à ton FAI.

Parfois, c’est le FAI qui fait cette démarche pour toi avec un document intitulé “autorisation de prélèvement” que tu lui envoies.


Y’a pas moyen de récupérer facilement l’argent sur le compte mais y’a moyen de bien les embêter. Genre tu les fait changer de FAI sans arrêt une fois le numéro de ligne récupéré.



[MàJ] Alienware X51 : le mini PC pour joueurs sous Ubuntu arrive en France

Le 10/04/2013 à 11h 54






romjpn a écrit :

Ce que je voulais dire, c’est qu’une console sera à peu près au même prix que le premier prix Alienware de cette gamme. Or ce premier prix a une GTX 645 (dont on ne connais pas très bien les performances qui doivent être moyennes) et un double coeur, certes très performant, mais un double coeur. Donc au bout de quelques années, tu devras changer la carte pour rester en 1080p. Avec une console, tu es assuré de pouvoir jouer à tous les jeux d’une génération de façon assez correcte si tu vois ce que je veux dire ;).
En plus quant t’es habitué au boot sur SSD, revenir au HDD <img data-src=" /><img data-src=" /> .


C’est sûr que sur ce genre de machine faut oublier le changement de carte graphique <img data-src=" />
Pour le SSD, j’attends le M500 1To à 500 euros pour redonner une vie à mon portable ! Je me force à garder mon HDD tout lent pour avoir une bonne surprise plsu tard !



Le 10/04/2013 à 09h 28






romjpn a écrit :

Une différence notable tout de même : normalement pas besoin d’upgrader le hardware de la console, qui devrait tenir pas mal d’années, alors que celui de l’alienware devrait être dépassé rapidement, en plus le matériel d’un PC n’est pas évolutif à l’infini, un jour ou l’autre la CM est trop obsolète. Autre chose : une console c’est quand même plus sympa je pense pour les jeux de combat et les FIFA (ou autres) entre potes.
Aussi : avoir un truc pour jouer seulement et un truc pour la bureautique, ça peut plaire à certains. En plus un PC de bureautique, c’est VRAIMENT pas cher, encore plus si tu le mets sous Linux.


Exact pour le fait d’avoir deux PC, cela va dépendre des configurations de chacun, de combien il y a des personnes à la maison, qui a un ordinateur, etc…
Par contre je ne comprends pas trop en quoi un PC non-upgradable deviendrait obsolète plus rapidement qu’une console. Il me semble que les deux vieillissent de la même façon, la différence étant que les jeux PC vont pouvoir mieux tirer à profit des possibilités des nouveaux PC forçant l’utilisateur d’un vieux PC à réduire les détails graphiques. Ce n’est jamais que ce qui est fait sur console, sans donner le choix aux utilisateurs de jouer en très haute résolution (Skyrim limité à 1080i avec les détails loin d’être à fond par exemple, cfcette vidéo).
Et rien n’empêche de profiter de FIFA et autres jeux entre potes en jouant avec une manette, à partir du moment où FIFA sera dispo sous linux bien entendu <img data-src=" />



Le 09/04/2013 à 15h 43






elmujeriego a écrit :

C’est moi ou ce Mini Pc ferait très bien office de future Xbox


+1
Certes c’est presque 3 fois plus cher qu’une xbox/playstation mais :




  • les jeux sont moins chers

  • Tu peux aussi l’utiliser comme PC bureautique

  • Tu peux mettre la télé avec un simple tuner TNT à 30 euros

  • Il reste joli mais discret, ce qui serait le point faible d’un PC fait main qui lui aurait l’avantage d’être moins cher ou plus performant

  • TROLL : on n’est pas obligé d’être connecté en permanence <img data-src=" />

  • Au niveau media player, ce n’est pas limité au xbox store



    EDIT: ah et dernier point, il est évolutif au niveau software et niveau hardware y’a moyen de rajouter de la mémoire et de remplacer par un ssd si besoin. C’est sans doute faisable sur une xbox mais ça doit être un peu plus touchy



La prochaine Xbox toujours en ligne ? « Faites avec »

Le 05/04/2013 à 09h 10

[quote:4529964:ActionFighter]
Je pense qu’on a tous bien lu, mais les rumeurs sont quand même bien persistantes.

Et puis le fait de lancer des rumeurs en off est une stratégie de management classique pour tester des idées ou faire passer la pilule sur un sujet (on annonce une grosse catastrophe en off, puis l’officiel annonce seulement une petite catastrophe)


La saison 3 de Game of Thrones bat déjà des records de téléchargement

Le 03/04/2013 à 16h 18






ed a écrit :

Non le piratage, c’est la solution actuellement en place pour le public français.

Si tu lisais ce qu’il dit, c’est juste une piste pour la location à 1 euros ou 2 l’épisode à sa sortie, sans avoir à respecter toute la chronologie des médias.
Je ne vois pas où est le problème, entre 2 euros l’épisode en VOD ou devoir aller chercher un fichier torrent sous-titré par une team fâchée avec l’orthographe, je préférerais payer.
L’alternative aujourd’hui, c’est d’être abonné à tout un bouquet télé sans intérêt pour pouvoir profiter d’UNE seule série.


Exact, même si j’envisageais plutôt l’achat au delà de 2 euros. Je me demande si une offre location/achat à 13 euros ne serait pas viable. Quelqu’un est au courant d’une étude de marché à ce niveau de prix ?
Je connais déjà un consommateur qui serait partant mais si je suis tout seul, c’est sûr qu’il n’y a aucun intérêt <img data-src=" /> Surtout que ça peut rentrer en conflit avec leur offre groupée avec abonnement.



Le 03/04/2013 à 15h 44






ed a écrit :

J’ai envie de voir la série.
Mais je ne veux pas attendre 10 mois la sortie DVD,
je ne veux pas prendre un abonnement Orange spécialement pour cette série, et encore moins Canal Sat.

Donc si demain HBO me propose la location d’un épisode en VOD pour disons maxi : 1.5€ sous-titré et le jour même, je prend tout de suite.


Surtout que bon, à ce prix là ils sont pas loin de faire un retour sur investissement de la série. Mettons 1 euro de gain par épisode pour tenir compte des taxes, de la technique (1015 centimes via Amazon) et du traitement des recettes. Avec 8,000,000 de personnes ça ferait du 80 Meuros par saison, soit le budget de la série qui n’est pas l’une des moins coûteuses. Sans compter les ventes de DVD et Blu-ray et autres produits dérivés.
C’est beaucoup de si mais je serais bien curieux de savoir le pourcentage de gens prêts à payer 1 ou 2 euros pour acheter un épisode. Moi je serais dedans.



HubiC : grosse mise à jour sous iOS, un client bêta pour OS X et Linux arrive

Le 03/04/2013 à 08h 09






luxian a écrit :

le client hubiC-browser ?
C’est encore la version 0.4.8 <img data-src=" /> je l’ai retéléchargé hier soir sur leur mirror.

et ça rame toujours autant.


Par contre, j’ai tenté une manipulation (qui avait été préconisée sur PCi) pour me connecter en WebDav et toujours nada <img data-src=" />

…. ce serait pourtant bien plus pratique.


Hubic browser ne semble plus être de la partie. Il s’agit maintenant d’un client de synchronisation type Dropbox qui fonctionne pas mal sous Windows et la beta sous Mac semble prometteuse.
Le connection en webdav n’existe plus depuis qu’ils sont passés à Openstack pour le stockage. Maintenant tu peux te connecter avec un client swift mais y’a quelques petites manip supplémentaires, à voir sur GuiguiAbloc pour comment faire sous linux.



Namie-machi, ville de Fukushima, expose ses rues désertes dans Street View

Le 30/03/2013 à 15h 38






tmtisfree a écrit :

Les graphiques sont issus du rapport de l’IPCC et les commentaires ne sont que de la paraphrase dudit rapport ; autant lire l’original.


Et donc la conclusion te parait vraisemblable ou pas ? C’était là la question ! La conclusion c’est qu’il y a une évolution à la hausse de la température significative, et qu’une telle évolution ne semble pas avoir été observée précédemment même si ce dernier point demande confirmation du fait des marges d’erreurs des mesures.

Je ne pense pas, c’est un fait : les données thermométriques sont torturées ajustées pour coller aux données satellitaires, qui ne mesurent pas la température (proche) de surface.

Renseigne-toi un petit peu sur les satellites. On mesure les températures à différentes altitudes et au sol et depuis quelques temps on peut même avoir un profil complet de la température par tomographie.
Les mesures satellites montrent une hausse de la température globale depuis les années 60. Sont-elles fiables ou erronées/ajustées à tes yeux ?

Autant tracer à partir des données originales. La résolution annuelle des carottes ne permet pas de discerner une quelconque variation de l’activité humaine et ressemble à la courbe de Mauna Loa (dont la résolution est bien supérieure).

La question était : que pense-tu du fait que Law Dome et Mauna Loa suivent une courbe similaire à l’évolution du PIB mondial ?

Je t’invite à revoir la définition de tous ces termes. Ce que tu affirmes fait partie de la grande famille des sophismes et est plus particulièrement connu sous l’expression cum hoc ergo propter hoc.

Je n’ai jamais parlé de causalité directe mais de probabilité de lien. Un sophisme aurait été : tel phénomène a telle évolution. Cette évolution correspond à cet autre phénomène. Donc cet autre phénomène est causé par le premier phénomène.
Et ce n’est pas ce que j’ai dit. J’ai parlé de probabilité de lien. Le fait qu’il y ait une corrélation entre deux phénomènes doit nous inciter à réfléchir sur leur lien éventuel, que cela soit de la causalité, qu’ils soient tous les deux les conséquences d’un autre phénomène, ou qu’il s’agisse d’une coïncidence statistique. Il s’agit de curiosité scientifique, pas de sophisme.

Oui et il est malheureux que les climato-catastrophistes de l’IPCC n’en aient pas tenu compte dans leurs hypothèses de départ : ils se seraient rendu compte que ces 2 modes de transport de la chaleur comptent autant dans le système que le mode radiatif.

L’ironie tu connais ?

Je n’allais pas détailler ligne d’absorption par ligne d’absorption quand même ?!

Grande découverte, je n’ai pas dit autre chose dans mon commentaire précédent. Cela en dit long sur ta compréhension de la différence entre un spectromètre et une “expérience cela soi” qui pourrait la mesurer en condition macroscopique (tout étant égal par ailleurs).

Ben explique moi en quoi j’ai tort alors. Lorsqu’on fait passer une certaine quantité d’énergie dans une enceinte gazeuse, plus la concentration en CO2 est forte, moins l’énergie en sort. Cette différence d’énergie reste dans l’enceinte, qu’elle soit retransmise par radiation dans le milieu, soit transformée en chaleur qui ensuite se transmet par convection et conduction. C’est un simple bilan d’énergie.

Un mot qui fait envoyer l’aiguille de mon bullshitmeter dans le rouge destination “crackpot” sans autre possibilité de commentaire futur de ma part.

Donc si un modèle te parait fantaisiste tu le rejettes immédiatement sans le considérer ? On va pas très loin comme ça. Une fois y’a un rigolo qui a dit que la Terre et une pomme s’attiraient mutuellement. Quelques siècles plus tard un autre rigolo a annoncé que le premier n’avait pas tout à fait raison.
Certes les modèles alarmistes sont moins probables et dans tous les cas restent des modèles non validés. Mais ne pas les considérer en analyse primaire c’est un peu moyen.



Le 30/03/2013 à 10h 36






tmtisfree a écrit :

Cela n’a pas de sens (ie c’est non scientifique) de comparer des périodes comme l’a fait l’IPCC (pourquoi n’ont-ils pas pris la période 1940-1970 par ex.). Si tu veux comparer la période actuelle (jaune) avec les périodes qui ont précédé (ce qui était mon point) autant le faire correctement : les périodes de réchauffement 1860-1880 et 1910-1940 ont la même pente. QED.


Regarde surtout la dernière courbe de cet article ET les explications de texte, y compris du paragraphe en dessous concernant les incertitudes des mesures.

Je ne doute pas qu’à force d’ajustements, on puisse torturer les données pour leur faire avouer ce que l’on veut.

Donc tu penses que les données satellites sont torturées ? Là par contre on rentre dans mon domaine d’expertise et je peux te dire qu’on se fait bien chier à les calibrer ces instruments avant vol et que si un satellite n’est pas fonctionnel dans l’immédiat, c’est qu’il y a une période de test de minimum quelques semaines pour vérifier que tout est correct.
Libre à toi ensuite de penser qu’il y a une conspiration mondiale qui fait que les satellites soviétiques, américain, européens, français, japonais et chinois ont été trafiqués de la même façon.

Je dis que les mesures (Mauna Loa par ex.) du CO2 ne reflètent pas (les variations de) l’activité humaines parce qu’elles sont trop monotoniques. Elles ressemblent plutôt au relargage constant (à la saison près) d’un puits (les océans probablement).

Est-ce vraiment monotonique ? Regarde Law Dome :http://commons.wikimedia.org/wiki/File:Sunspot-co2FR.jpg
Et quand au manque de variations brusque, je t’invite à comparer la variation de la quantité de CO2 avec la variation du PIB mondial. Les deux courbes sont très lisses avec une augmentation très marquée après la seconde guerre mondiale.

Une corrélation n’implique pas de lien de cause à effet. Pas besoin de source pour comprendre cela.

Une corrélation implique une probabilité de lien entre deux événements. Cette probabilité est plus ou moins grande suivant la qualité de la corrélation. C’est tout. Ce que je te demandais sans agressivité c’est une source sur la perte de corrélation dont tu fais mention.

C’est la version Paris Match ça.
La version scientifique est la suivante : dans une colonne d’atmosphère de 1m de diamètre et 10km de haut, seule une petite partie du CO2 absorbe effectivement les radiations venue de la surface : en 1 seconde par ex. l’énergie venant d’un m² de sol est absorbé entièrement par seulement 3 mètre (cube) d’atmosphère. Le fait d’augmenter le nombre de molécule de CO2 ne fait qu’augmenter la probabilité que les radiations soient absorbées (plus près de la surface). Ce qui fait que le nombre de molécules de CO2 qui peut absorber ne dépend que des radiations émises par la surface qui elles-mêmes ne dépendent que de l’insolation.
Point 1 : les radiations sont absorbées à une très faible hauteur (typiquement &lt; à 10m).

Il existe physiquement 3 processus de dé-excitation : ré-émission de photon, déplacement, ou collision. On peut calculer la fréquence (càd la probabilité) de survenue de chacun de ses processus dans le cas du CO2 (je t’épargne les calculs) : la ré-emission a une fréquence de 300000 Hz, le déplacement de 30000000 Hz et la collision de 5000000000 Hz. Interprété en terme de probabilité à température ambiante, la probabilité qu’une molécule de CO2 perde son énergie par collision est 4 ordres de grandeur supérieure à la probabilité qu’elle la perde par radiation (émission de photon). L’énergie d’excitation est donc convertie en énergie cinétique (une température que l’on peut mesurer). Au fur et à mesure que les collisions augmente le système atteint un pseudo-équilibre par un processus qu’on appelle thermalisation et qui correspond à la redistribution rapide de l’énergie à travers le système (H20, N2 et CO2 principalement) et dans lequel la probabilité de collisions subséquentes diminue rapidement : c’est ce que l’on pourrait appeler l’effet (de serre) atmosphérique.
Point 2 : l’effet (de serre) atmosphérique dépend de mécanismes physiques, pas de la composition de l’atmosphère.

On peut montrer par le calcul que, dans un tel système, le nombre de molécule de CO2 possédant suffisamment d’énergie pour perdre un photon avec une longueur d’onde correspondant à la bande de fréquence d’absorption (typiquement 15 µm) est très faible. La part marginale qui réémet ce photon le fait 50% vers la surface, 50% vers l’espace, mais comme le nombre de molécules de CO2 non excitées est bien plus important (le système n’est pas saturé), le photon en route vers la surface est instantanément réabsorbé et thermalisé par collision. On peut aussi montrer que la distance théorique parcourue par ce photon avant d’être réabsorbé est inférieur au rayon d’un noyau (ie il est ré-absorbé aussi vite qu’il a été émis).
Point 3 : il n’y a pas de radiation qui reparte vers la surface pour la chauffer à nouveau, ce que nous enseigne exactement la thermodynamique : les flux de chaleur passif s’écoulent du chaud vers le froid (surface vers atmosphère), pas le contraire.

Seuls les photons en dehors de cette fréquence pourront être renvoyés 50% vers l’espace et 50% vers la surface parce que l’atmosphère leur est transparente. Les mécanismes d’interaction entre un photon incident à longueur d’onde longue et la surface est la ré-émission d’un photon identique (ou de 2 photons par diffusion Raman) directement par transition instantanée ou indirectement par conversion d’énergie cinétique en énergie électromagnétique. Quantitativement, le nombre total de ces photons à basse fréquence ne dépend que du nombre total de photons émis par la surface, et donc de l’insolation. Donc ajouter du CO2 ne va pas modifier le nombre de photons réémis. Au fur et à mesure que le soleil s’élève, la surface devient plus chaude, et l’atmosphère à la verticale chauffe aussi, mais moins vite. Le gradient qui en résulte permet la mise en route d’un mécanisme de transport de chaleur (qu’on appelle convection) à travers le gradient de pression déclinant que constitue l’atmosphère. Plus la hauteur atteinte est élevée plus le nombre de molécules diminue, ainsi que la fréquence de collision : la probabilité de ré-émission de photons augmente, les conduisant vers l’espace (la probabilité de ré-émission augmente donc quand l’air s’élève, mais comme les couches immédiatement inférieures sont plus denses, les photons ré-émis vers le bas sont instantanément réabsorbés).

Les analyses théoriques et spectrométriques montrent que la ré-émission de l’énergie stockée dans une molécule de CO2 n’est pas nulle mais est très faible aux températures présentes. Comme cette énergie est convertie en énergie cinétique, on peut estimer par le calcul que toute cette énergie est absorbée dans les 10 premiers mètres de l’atmosphère (par la loi de Beer-Lambert). Plus finement, en raisonnant par couche de molécules, en supposant que le CO2 est distribué au hasard et mixé de façon homogène (les supposition IPCC), on peut calculer qu’il ne faut que 5 couches d’1m² de molécules de CO2 (à 15 degré C) pour absorber la totalité des radiations émises par la surface, soit entre 3 et 4 m de hauteur. Donc au fur et à mesure que le nombre de molécules de CO2 augmente, la probabilité que le CO2 soit excité augmente aussi (à la même altitude). Mais comme quasiment toutes les radiations provenant de la surface sont absorbées dans les premiers mètres au-dessus de celle-ci, le nombre total de molécules de CO2 excitées ne sera pas modifié, ce qui n’a aucun effet sur le nombre de radiations à longueur d’onde longue renvoyées vers la surface. Comme l’atmosphère est transparente à ces fréquences, la hauteur à laquelle le renvoi survient n’aura pas d’effet sur le nombre total de radiations retournées vers le sol.
Point 4 : la concentration en CO2 n’a pas d’influence sur la quantité d’énergie contenue dans le système.

Conclusion : les gaz atmosphériques agissent comme un conduit pour évacuer l’énergie captée initialement par certains gaz dans l’atmosphère. L’énergie circule indépendamment du nombre de molécules dans le système. A aucun moment les molécules ne sont toutes excitées, et une augmentation de leur nombre réduit seulement la hauteur à laquelle les radiations sont absorbées. Cela n’altère en rien le nombre total de molécules excitées et n’a pas d’effet sur la proportion de radiation de la bande de fréquences correspondant à fenêtre transparente de l’atmosphère. Cela n’a pas non plus de conséquence sur la proportion ou la quantité de radiations ré-émises vers la surface.

On montre donc clairement que n’importe quel gaz (H2O, CO2 ou autres) avec une ligne ou une bande d’absorption dans les limites spectrales du champ radiatif de la surface terrestre chauffée sera capable de contribuer à augmenter sa température. Il est aussi très clair qu’après avoir atteint un certain seuil de densité de gaz atmosphérique, qui est nettement plus faible que celui actuel, il n’y aura plus de nouvelle augmentation de température de cette source, quel que soit l’augmentation future de sa densité.

Ces conclusion ne sont que les conséquences des lois de la physique radiative.

C’est sympa de m’expliquer le transfert d’énergie par radiation. En plus du transfert par radiation, il y a aussi la conduction et la convection.
Pour la fréquence, il y a beaucoup plus de fréquences que ça. 8000 bandes dans l’infrarouge :http://tel.archives-ouvertes.fr/docs/00/60/00/74/PDF/THESIS.pdf
En effet, il faut compter les bandes des atomes C et O, et les fréquences associées aux deux liaisons C=O avec différents modes de vibration.
Dans tous les cas je dis que le CO2 absorbe les rayonnement augmentant sa température ainsi que celle de son environnement de la sorte et tu dis pareil : on est d’accord.
La question étant “une concentration plus élevée de CO2 dans un milieu azoté implique-t-elle une plus grande absorption de rayonnement ?” La réponse ci-après !

Je t’invite à le faire toi-même : les scientifiques n’ayant jamais réussi à le démontrer empiriquement, je préfère te laisser perdre ton temps plutôt que le mien.

Bizarre, ça absorde :http://jvarekamp.web.wesleyan.edu/CO2/FP-1.pdf

A propos des modèles, le mieux est encore de citer l’IPCC lui-même :

, la même critique par des scientifiques extérieurs au cénacle.
ou des exemples (parmi d’autres) qui montrent les déficiences des modèles.

Bon, j’arrête ici.

Ben ça tombe bien c’est exactement ce que j’avais dit quelques pages de commentaires. Non on ne peut pas prédire le climat futur. Ce qu’on sait :




  • l’homme rejette massivement du CO2 dans l’atmopshère

  • la concentration de CO2 dans l’atmosphère augmente de façon cohérente avec les rejets de l’homme

  • plus la concentration de CO2 dans un milieu azoté est importante, plus il va absorber les rayonnements reçus et donc chauffer.

    Maintenant on peut tenter de prédire le futur avec des modèles. Plus on ira loin dans le futur moins notre modèle sera précis (étude de systèmes dynamiques chaotique). C’est pour cela que prédire le temps à 10 min se fait très bien, à 1 semaine un peu moins bien et à l’année encore moins bien. Les différents modèles (subjectifs) étudiés pointent en moyenne vers une hausse des températures de façon globale (et non pas locale) avec une variation allant de 0°C à un emballement type Vénus avec une majorité pointant sur un intervalle 2°C-8°C. La conclusion de cela est que notre perception actuelle est que la température va monter, perturbant de façon rapide notre milieu. Et on ne sait pas de quelle ampleur.

    Doit-on réagir alors qu’il ne s’agit que d’une perception de danger et non pas d’une certitude absolue ? Je pense que oui, tout comme je réagis quand quelqu’un ferait semblant de me donner un coup de poing, tout comme je réagis quand mon pot de nutella risque de tomber par terre. Dans ces deux cas je n’ai pas la certitude absolue qu’il va y avoir un événement négatif (oui j’ai déjà fait tomber un pot de nutella sans qu’il se casse) mais le coût de la réaction me semble faible par rapport au risque associé et donc je le paie.



Le 29/03/2013 à 19h 07






tmtisfree a écrit :

L’arnaque, elle est dans les faits que :
1/ les températures (ou leur accélération) ne sont pas différentes de ce qu’elles ont pu être précédemment ;


Je t’invite à aller voir là, article sourcé :http://www.manicore.com/documentation/serre/commence.html

2/ les mesures thermométriques qui existent sont biaisées (UHI, mesure dans les aéroports, etc, etc) et ne tiennent pas compte des océans (qui forment les 34 de la surface) et sont bizarrement toujours corrigées à la hausse dans le présent ou à la baisse dans le passé ;

Manque de bol, les mesures faites au sol sont correllées avec des mesures satellites globales. Ce lien montre la différence de valeur entre les deux :http://www.appinsys.com/GlobalWarming/SatelliteTemps.htm Je te laisse conclure sur l’effet du “biais” dont tu parles.

3/ les mesures de CO² ne reflètent pas les variations des activités humaines, que reflètent-elles alors ?

J’ai pas compris ta phrase. Que veux-tu dire ? Mets-tu en question un lien entre la hausse de CO2 dans l’atmosphère et l’activité humaine ?

4/ la corrélation (qui a disparu depuis une décade et demi) entre CO² et température n’est pas une causalité ;

Si tu as des sources je suis preneur.

5/ la théorie dit que le CO², tout étant égal par ailleurs, augmente très légèrement le temps de sortie du système atmosphérique du rayonnement à grande longueur d’onde : cela n’a jamais été montré empiriquement et tout n’est jamais égal par ailleurs dans la Nature ; on peut calculer que plutôt que le temps, c’est le niveau à partir duquel le rayonnement s’échappe vers l’espace qui est modifié ; ce qui fait que la quantité d’énergie qui appartient au système à un instant t pour une concentration donnée de CO² ne sera pas différente de n’importe quelle autre plus tard ;

La théorie ne dit pas ça. La théorie, qui est scientifiquement prouvée, c’est que le CO2 absorbe plus les rayonnement infrarouges. Conclusion : lorsqu’un milieu contient une concentration plus élevée de CO2, ce milieu absorbe mieux les rayonnements infrarouges extérieurs. Si tu tiens à expérimenter cela toi même c’est très facile : tu prends deux enceintes transparentes, l’une contenant du CO2 l’autre de l’azote. Tu pointes sur chacune de ces deux enceintes un lampe infrarouge et tu mesures l’augmentation de la température. Cela augmentera plus vite dans l’une d’entre elle.

6/ les modèles climatiques sont basés (entre autres) sur les équations des fluides (Navier-Stokes) qu’on ne sait pas résoudre : ils sont donc approximés. Le système étant spatio-temporellement chaotique, les erreurs se propagent plus vite que les données et les modèles doivent donc être contraints par des paramètres qui sont laissés au bon vouloir du modeleur : pas très scientifique ;
7/ pour contourner le problème, des ensembles de runs de modèles sont choisis selon des critères qui ne sont jamais définis pour faire des moyennes, ce qu’on appelle en langage IT : GIGO ;
8/ ces modèles ne sont jamais vérifiés (bogues, conforme aux spécs.) et encore moins validés (reproduction, rétrodiction, postdiction, etc) : tout ingé qui se respecte en rigole encore ;

T’as déjà fait de la météorologie ? Parce que je t’assure que c’est très scientifique et qu’un modèle est testé avant d’être utilisé et ses limites sont connues.
Quand à Navier Stokes, oui on ne peut pas la résoudre de façon analytique telle quelle. Mais je te rassure je l’ai déjà fait en utilisant des valeurs au premier et second ordre, cela n’a rien d’ultra compliqué. Ceci signifie qu’on est capable d’avoir des modèles valides sur une courte période, la durée de ladite période étant proportionnelle à la quantité de calcul que tu peux te permettre. D’où les modèles climatiques qui donnent des tendances dans un domaines pré-établis. Donner un ordre de grandeur de l’évolution de température globale suivant le taux de rejet de CO2, ça on sait faire. Dire la température moyenne de la France dans 50 ans, c’est hors du domaine d’étude même si lors des calculs cela peut en sortir une.

9/ la sensibilité climatique a été calculée aux environs de 1 à 1.5 °C pour un doublement du CO², pas de quoi hurler à la catastrophe ; elle varie suivant l’espace et le temps, elle dépend donc des conditions de mesure ;

Les 1 à 1.5°C sortent d’étude supposant que Kyoto serait respecté, ce qui ne sera pas le cas. Dans tous les cas, considérer juste la moyenne est une erreur. Une augmentation de 1.5°C c’est aussi plus souvent des canicules. On a pris 0.5°c par rapport au début des années 80 et la différence se fait sentir. 3 fois plus se fera encore plus sentir. Sans compter qu’on ne connait pas les effets d’une telle variations aussi brusque sur l’écosystème terrestre.

10/ je pourrais continuer sur des pages.

Par infos, je ne suis pas climato-sceptique (quel bouffon irait affirmer que le temps/climat ne change pas alors que c’est sa principal caractéristique), je suis septique tout court (comme tout scientifique qui se respecte).



Le 29/03/2013 à 16h 23






yvan a écrit :

C’est rude à lire…
tableau 5 de çahttp://www.ag-energiebilanzen.de/viewpage.php?idpage=139
effectivement pour l’électricité en 2011 on serait à 16,1% de renouvelable contre 22.6 en nucléaire.
Et ils regroupent éolien et autres…

Ish bin à deux doigts de lâcher la lecture de ce truc quand même.

Speak english or die! <img data-src=" />


Pourquoi c’est pas les anglais les spécialistes de l’éolien, ça serait quand même vachement plus simple <img data-src=" />
Et en plus je te donne la mauvaise source. C’est
http://fr.wikipedia.org/wiki/%C3%89nergie_en_Allemagne#cite_note-BMWI-22-66 dans l’onglet 22.
Bon c’est vrai que leur tableau excel est un peu ultra gore, même s’il était en français. Que veux-tu, toute la finesse à l’allemande !



Le 29/03/2013 à 15h 47






marsokod a écrit :

OK je comprends mieux de quoi tu parles maintenant. Le ministère de l’énergie allemand parle de 7,4% d’éolien dans l’électricité en 2012 avec 46TWh.


Et pour m’appliquer la contrainte de source à moi-même, celle qui correspond au chiffre de 7,4% est citée par wikipédia renvoyant vers le site du BMWi.
http://fr.wikipedia.org/wiki/%C3%89nergie_en_Allemagne#cite_note-EB-4.1-61
Là aussi y’a de l’allemand mais c’est juste des mots isolés et relativement clair donc vive google translate pour les non-germanophone. Indice : éolien = Windkraft



Le 29/03/2013 à 15h 38

Les gars, quand vous sortez des chiffres mettez les sources où le calcul est un minimum détaillé, sinon on s’en sortira jamais.


Le 29/03/2013 à 15h 36






yvan a écrit :

Je ne parlais que de l’électricité.
Les chiffres sont en camemberts ici http://sciences.blogs.liberation.fr/home/2013/01/electricit%C3%A9-le-cas-allemand.html et effectivement la différence par rapport à wikipedia qui a des chiffres de 2009 est importante.
Pour l’autre source je ne lis pas l’allemand…


OK je comprends mieux de quoi tu parles maintenant. Le ministère de l’énergie allemand parle de 7,4% d’éolien dans l’électricité en 2012 avec 46TWh.



Le 29/03/2013 à 13h 33






HarmattanBlow a écrit :

Non. Produire de l’énergie par fusion nécessite aujourd’hui d’investir plus d’énergie que ce qu’on en tire. Pour simplifier le démarrage est très coûteux mais on ne parvient pas à faire durer la réaction plus d’une minute. D’autres systèmes font durer la réaction plus longtemps (une heure) mais alors c’est en injectant en permanence de l’énergie, davantage que ce qu’on produit.

Note que les durées que je donne sont indicatives et déjà anciennes. Mais l’essentiel est qu’on claque plus d’énergie que ce qu’on produit. Ce n’est donc pas simplement plus coûteux, ce n’est pas viable.


Mais que tu le veuilles ou non tu fais un choix : si tu choisis de retarder ton choix, alors tu choisis de conserver le choix actuel.
<img data-src=" />

Ensuite, même si tout était connu (ce qui ne sera jamais le cas), ce ne serait jamais un simple problème mathématique. Comment comparer la valeur d’un paysage, un coût en vies humaines, et un coût en milliards d’euros pour les ménages ? Tu peux toujours t’amuser à en faire des évaluations économiques mais c’est une réponse qui ne satisfera pas grand monde : les poids d’appréciation des divers facteurs sont et seront nécessairement subjectifs.

Dis-moi ce en quoi une personne croît et je te dirai quelle énergie elle privilégie. Je suis un fumeur qui n’aime pas attacher sa ceinture et qui lève les yeux au ciel chaque fois qu’il entend “principe de précaution” (donc osef du risque des radiations), qui vient d’une famille pauvre et ouvrière (donc attaché à un prix de l’énergie aussi bas que possible), etcétéra. Le meilleur compromis à mes yeux est donc le nucléaire.


Malheureusement je ne crois pas un instant que le conséquence serait une production plus locale. Une production à l’étranger, plus probablement. Puis ferroutage et utilisation de petites routes comme alternatives.



Il me semblait qu’avec START ils avaient réussi à faire une réaction ayant produit de l’énergie. C’était rendement très proche de 1 donc merdique pour une source d’énergie mais quand même supérieur à 1. Dans tous les cas je suis d’accord avec toi pour dire que ce n’est pas viable économiquement parlant et techniquement extrêmement complexe, c’était surtout pour souligné qui si on souhaitait passer demain au tout éolien voir même au tout renouvelable, ce serait une aberration.
Pour moi, mais cela reste une conviction sur la base de mes connaissances présente, il faut progressivement remplacer l’énergie fossile par les renouvelables en baissant notre consommation et ensuite seulement on s’occupera du nucléaire qui n’a pas fait tant de dégâts que ça en comparaison de ce qui semble nous attendre avec le réchauffement climatique.



Le 29/03/2013 à 12h 37






HarmattanBlow a écrit :

Je ne connais pas trop le problème mais de ce que j’en sais ils ne sont pas particulièrement toxiques (hors radioactivité) et se désintègrent assez rapidement. A part leurs éventuels effets délétères sur la durée de vie du verre et bien…


Marsokod proposait de réduire sa consommation (ex : bouffer moins de viande). L’effort est sur le consommateur.
Toi tu fais reposer l’effort sur l’industrie qui doit acheter ses matières premières localement. Ce qui me semble être un vœu pieu.

J’ai donc du mal à comprendre ton plussoyage.


C’est un ensemble quand même.
Réduire notre mode de consommation aussi, et cela concerne à la fois le consommateur comme tu le dis mais aussi les entreprises qui sont aussi des consommatrices à leur niveau. Reste que réduire le mode de consommation va à l’encontre de ce que veulent les gens dans notre société. Je pense qu’il faudrait plutôt parler “d’améliorer notre consommation”.
Le point le plus intéressant en France c’est le chauffage (i.e. l’isolation) qu’il est possible d’améliorer facilement et de bien réduire notre demande domestique.
Un autre point d’amélioration, ce serait peut-être une pseudo taxe carbone sur les autoroutes : plus un véhicule consomme, plus il est taxé. Certes cela va mettre sur le tapis un certain nombre de routiers mais ça peut être fait de façon progressive et améliorera notre façon de consommer en cherchant local.



Le 29/03/2013 à 12h 22






maestro321 a écrit :

+1

Ca passe par exemple par une restructuration complète du modèle agricole mondialisé qu’on à aujourd’hui.

Les denrée qui peuvent être produite sur place doivent être produite sur place, ce serais un énorme gain énergétique (transport, transformation, perte etc..).
Mais la logique est à acheter moins chère même si c’est au l’autre bout du monde alors on est pas près de faire des économies là où il y en a vraiment besoin.

Même les groupes politiques dit “écolo” n’abordent pas/peu la question et se contentent de nous rabâcher qu’il faut du renouvelable.


Effectivement.

Pour ce qui est du débat nucléaire/pas nucléaire, c’est une perte de temps au final, de la masturbation intellectuelle. On a le choix entre remplacer d’abord le nucléaire ou d’abord l’énergie fossile, ou un mix des deux, sachant qu’on souhaite les remplacer à quantité équivalente et à prix équivalent. Le soucis étant : si c’est techniquement faisable de le faire à quantité équivalente (tout comme la production d’énergie par fusion est techniquement faisable), le prix associé est bien plus élevé. Et quand on est un pays, si on décide unilatéralement d’augmenter le prix de son énergie, on va voir tous les boulots s’expatrier là où c’est moins cher et le pouvoir d’achat reculer de façon considérable (c’est pas quelques %) provoquant émeutes et guerres civiles.

Et quand à choisir entre remplacer en priorité le nucléaire ou les fossiles, c’est un problème insoluble. On parle ici d’un système complexe (la planète) qui est un système dynamique chaotique donc sans possibilité de prédire sa réaction à long terme. Je ne connais pas la valeur de l’exposant de Lyapunov dans le cas du climat mais ça doit pas faire plus de quelques années.

La réponse à la question “qu’est ce qui est le plus dangereux, le réchauffement climatique ou les accidents nucléaires ?” ne sera disponible qu’une fois l’événement passé. C’est mathématiquement impossible d’y répondre à l’heure actuelle, n’en déplaise à tous les activistes de tous poils.



Le 29/03/2013 à 10h 57






yvan a écrit :

Je sais que charbon et gaz représentent plus de la moitié en Allemagne. Mais ils produisent pas quasi rien en éolien en 2010 c’était 10% et la somme du renouvelable était autour du quart de leurs besoins soit à peu près autant que le nucléaire.


Tu peux citer tes sources ? Parce que là ça ne colle pas avec les chiffres que j’ai en 2012 où:
Part des énergies renouvelables dans l’énergie primaire : 11,6%
Part de l’éolien dans les énergies renouvelables : 14,4% (c’est surtout dominé par la biomasse, et le photovoltaique c’est 9%)
Part de l’éolien dans l’énergie primaire : 14,4 % x 11,6 % = 1,7%
Je me base sur les chiffres de l’AGEB :http://www.ag-energiebilanzen.de/viewpage.php?idpage=118 ethttp://www.ag-energiebilanzen.de/viewpage.php?idpage=187
La page wikipédia http://fr.wikipedia.org/wiki/Énergie_en_Allemagne est aussi intéressante.

Petit ordre de grandeur aussi : le taux de charge de l’éolien terrestre est de 20% environ. C’est-à-dire que pour 1MW d’installé, on ne récupère qu’en moyenne 0,20MW d’énergie et aussi que si l’on ne souhaite se baser que sur cette énergie et en inventant un stockage d’énergie efficace à 100%, pour avoir 1MW d’énergie il faut installer 5MW. Juste des petits chiffres à garder en tête pour que tout le monde sache de quoi on parle.
Mon opinion c’est que le renouvelable n’est pas encore prêt technologiquement à prendre la relève du mix gaz/pétrole/nucléaire. Ce mix doit disparaître mais je vois mal comment techniquement c’est faisable avant au moins 2050, même en considérant une évolution exponentielle des techniques (je suis un grand fan de Peter Diamandis). Il va falloir diminuer en priorité notre consommation, surtout que c’est là un point qui ne fait pas débat.



Seuls 9 % des Français appliqueraient une bonne politique de mot de passe

Le 27/03/2013 à 10h 03






Jean_Peuplus a écrit :

Et le jour ou tu perds tes doigts parce que les coréen du nord se mettent à balancer la sauce ?


Et le jour où Chuck Norris t’as piqué ton compte dropbox ?



Le 27/03/2013 à 10h 00






kvasir a écrit :

Ou pire le jour où tu n’as plus de batterie sur ton tel et que dropbox est HS?


Et qu’en plus une guerre nucléaire vient d’éclater et que toute connection à internet est morte. Là avec la solution keepass c’est plus possible de consulter ses mails !
<img data-src=" />



Le 27/03/2013 à 09h 43






John Shaft a écrit :

Perso j’ai INstallé KeePass, je suis passé au mot de passe aléatoire unique de 130-140 bits environ <img data-src=" />


Moi c’est Lastpass mais pour le même résultat : des mots de passe avec minimum 20 caractères, j’essaie de tourner autour de 30.
Par contre à cause de ça c’est fou ce que je remarque maintenant les sites te limitant la taille du mot passe à des valeurs ridicules, genre moins de 10 caractères avec juste lettres et chiffres. Ça devrait être INterdit !



Google Reader fermera ses portes le 1er juillet, quelles conséquences ?

Le 14/03/2013 à 11h 22






unCaillou a écrit :

+1
Nos box devraient pouvoir faire serveur et proposer une gamme d’applis pour pouvoir héberger dessus nos mails, rss, blogs…
On a des box qui coutent plusieurs centaines d’euros mais elles ne sont pas foutues de faire serveur !!
Du coup on déporte toute notre activité sur des services externes, dont on devient dépendant… <img data-src=" />


+1
Cela dit après cela poserait plein de problème de SAV à partir du moment où on peut laisser les gens bidouiller leur box. Autant les lecteurs de PCI se débrouillerait, autant les pseudo débrouillards seraient capable de pourrir leur configuration pour ensuite se plaindre au SAV.
A la rigueur prévoir un service de DDNS avec un serveur low cost, ça serait génial.



Le 14/03/2013 à 10h 24






AlexRNL a écrit :

Autre chose de très utile (devenu indispensable, c’était les raccourcis claviers pour naviguer dans les éléments d’un flux. Un autre lecteur en ligne offre cette fonctionnalité ? <img data-src=" />


Feedly a des raccourcis claviers et maintient les touches j et k dans leurs fonctions.

EDIT: Et Tiny tiny RSS semble en avoir aussi, mais pas moyen d’avoir la page avec leur détail. Ils sont un peu sous l’eau en ce moment, comme la plupart des autres concurrents :)



Le 14/03/2013 à 08h 27

Il y a the old reader qui ne semble pas trop trop mal en tant que service. Par contre niveau synchro je sais pas trop ce que ça donne, ils sont surchargés en ce moment.
Finalement je pense que je vais aller chez Feedly même si comme grunk je trouve ça un peu trop graphique.


En attendant sa caméra, le Raspberry Pi s'envoie en l'air dans le Tardis

Le 08/03/2013 à 10h 00






cesame a écrit :

Les avions de ligne sont équipés de radar météo, pour éviter les collision en vol il y a le TCAS.

Plus dangereux, les drones y compris les petits hélicoptères radio-commandés.



Ben ça change pas que sans réflecteur radar, l’empreinte de l’ensemble est minimale. Alors qu’un simple octaèdre en carton recouvert de papier alu ne pèse pas lourd, coûte 3 centimes et améliore la visi.



Le 07/03/2013 à 14h 37






mtristan a écrit :

Non non, ils ne se sont pas trompés. C’est dangereux mais toujours faisable. C’est bien écrit plusieurs fois (sur le manomètre entre autres) que c’est de l’hydrogène (du dihydrogène…), et il y a bien l’autocollant de gaz inflammable sur la voiture.



OK. J’avoue j’avais pas regardé la vidéo en entier, juste la partie où ils écrivent hydrogène à l’écran.



Mokona a écrit :

<img data-src=" /> sans flamme ou etincelle tout se passe bien


En manipulant de l’électronique avec des piles et des cartes à l’air libre, on peut assez facilement envisager une étincelle lors du gonflage. Ok la probabilité est faible mais si ça arrive, t’en prends plein la gueule. On voit sur la vidéo qu’ils ont bien fait gaffe de laisser la payload éloignée pendant le gonflage et le filin portant le Tardis est assez long.
Sinon quelqu’un voit un réflecteur radar ? C’est quand même plus sympa pour les avions de ligne même si je sais pas si c’est obligatoire au Royaume-Uni.



Le 07/03/2013 à 14h 20






iksarfighter a écrit :

Hydrogène pas hélium.


Je me demande s’ils se sont pas trompés dans la vidéo. D”habitude on fait ça avec de l’hélium, l’hydrogène ayant une fâcheuse tendance à brûler à la moindre occasion.
Cela dit, s’ils on fait ça à l’hydrogène, j’applaudis. L’hélium se trouve en quantité très limité sur notre planète et pour l’utiliser pour gonfler des ballons c’est un peu dommage…



NAS Synology : le DSM 4.2 disponible en version finale, à partir des DS-x09

Le 05/03/2013 à 21h 44






cygnusx a écrit :

Question naive mais quelle est l’utilité du NAS dans votre vie de tout les jours est ce juste un stockage ou un média centre ?



Pour moi c’est stockage de fichiers, media center via la xbox ou les applis iOS et android, synchro avec cloudstation ce qui évite de trop passer par dropbox. C’est super utile aussi pour partager des docs entre différents appareils.



Le 04/03/2013 à 18h 23

A noter l’apparition d’une app DS Cloud sur le Play Store et la disparition de la fonctionnalité Cloudstation de l’application DS File. Cool tout ça, je teste.

Edit: Bon je testerai plus tard, impossible de mettre les paquets à jour de façon automatique pour l’instant, les serveurs étant surchargés


XP13 Developper Edition : l'Ultrabook Ubuntu de Dell est à 999 € HT en France

Le 05/03/2013 à 14h 40






Superambre a écrit :

faut arrêter avec vos trolls de trop gros passera pas.

suis désolé en 2013 1360 x e m’en fous c’est nul comme réso, on fous du full hd sur du 5 pouces et c’est tout

j’ai eu un 13’ en 13 ben je peux te dire que c’est pas glorieux, dommage a la vue des autres composants du PC

merci à l’avenir de modérer tes propos



Merci de lire la news en entier et/ou de lire la fiche Dell. Il s’agit d’un écran 1080p sur cette version <img data-src=" />

Edit: grilled



Synology DSM 4.2 bêta : augmentation des performances et support d'AirPlay

Le 08/01/2013 à 15h 59






Bill2 a écrit :

ben, si je regarde la news parlant de la version 4.1, on a bien l’interface qui est utilisée depuis Windows …
http://www.pcinpact.com/news/73481-synology-dsm-4-1-version-finale-est-disponibl…

Bref, je ferais tout de même la MAJ, ça ne coûte pas grand chose !

Edit : en fait, DSM, ça regroupe à la fois la partie logiciel Windows “ET” le firmware côté matos, d’après ce que je vois ici :http://www.synology.com/support/download.php?lang=fre&b=2%20bays&m=DS212…


Le DSM correspond plus au firmware associé à l’interface web. Normalement tu n’as rien à installer sur ton ordi sous Windows, Mac ou Linux pour utiliser le NAS (y’a un assistant d’installation disponible mais c’est facultatif).



Le 08/01/2013 à 15h 46

Manque plus qu’un client linux pour cloudstation et surtout la gestion de l’historique de fichier. Ce dernier est stocké sur le NAS, avec tous les soucis de l’espace disque utilisé associés. Mais impossible d’accéder aux anciennes versions de façon simple ou de paramétrer la profondeur de l’historique !
Cela dit, c’est une très bonne alternative à Dropbox pour un coût sensiblement inférieur dès qu’on dépasse les 200 Go d’espace requis. En attendant qu’Hubic Sync se stabilise un peu plus.


HTC One SV : un smartphone 4G sous Android à 450 €

Le 12/12/2012 à 16h 46






aurel_gogo a écrit :

A ce prix là il y a quoi de mieux ? Car je trouve les caractéristiques techniques pas dégueu et le tél me semble pas hors de prix non plus (hors Google Nexus, mais il faudrait déjà qu’il soit disponible)



Un Galaxy S3 pour 20 à 50 euros de plus ?



Le 12/12/2012 à 16h 44






Teovald a écrit :

J’ai l’impression que les memos sur la reduction du nombre de produits & la clarté de la marque One ne sont pas passés dans toutes les équipes HTC.



Pareil, ils ont vraiment un problème chez HTC. A croire qu’ils veulent qu’HTC devienne une marque anonyme.



HDMI Smart TV : un dongle sous Android 4.1 à 99 € chez Point of View

Le 23/11/2012 à 17h 17

Y’avait déjà les Rikomagic qui font ça, sans le clavier sans fil :http://store.cloudsto.com/dual-core-rikomagic-mk802-iii/rikomagic-dual-core-mk80…

Perso je connais pas donc niveau performances, ça reste à voir. Mais ça reste toujours plus simple que de se bricoler la même chose avec une pandaboard ou autre du même style.


Asus Padfone 2 : suivez la conférence en direct de Milan dès 11 h

Le 16/10/2012 à 10h 12






styX-Xyts a écrit :

Trop cher !
800€ pour télépone + “tablette” (ce n’est pas vraiment une tablette puisqu’elle ne peut pas être utilisée seule)

C’est vraiment dommage de proposer ce produit à un tel prix ! Ce sera sûrement un échec comme le Padfone 1.



Il faut comparer ce qui est comparable. Ce système remplace à la fois tablette et smartphone sauf dans le cas où tu souhaites utiliser les deux appareils en séparé (genre tu laisses le tél à tes enfants pendant que tu es sur tablette).
Ici on est plus comparable à un système dual Galaxy SIII et Galaxy Note 10” soit 550 + 700 = 1250 euros pour 16 + 32 Go.
Donc si tu souhaites un système synchronisé avec une autonomie sur plusieurs jours, le Padfone 2 te fait économiser 450 euros pour une même utilisation, et en plus tu peux monter à 64 Go. Ok on perd la possibilité d’avoir deux appareils en simultané mais ça ne correspond pas à mon cas et ça me fait économiser pas mal. C’est le système que j’attends depuis 2008 (bon, avec un dock clavier en plus ça aurait été encore mieux <img data-src=" />) et si le téléphone est pas trop dégueux en test, je crois que je vais me laisser tenter…



Twitter s'implantera à Paris en 2013 selon Bertrand Delanoë

Le 01/10/2012 à 16h 00







NiCr a écrit :




  • 1 <img data-src=" />



    Pareil, je trouve l’exemple très mauvais pour la cause, car cette loi pose un problème bien réel : le financement des startups.
    Les startups qui n’ont pas besoin de fonds pour démarrer, c’est rare et les fonds, c’est les investisseurs qui en ont (les banques aussi mais sans investisseurs c’est niet). Et comme le montre l’article de La Tribune de l’article, avec cette nouvelle loi il va falloir un Business Plan encore plus béton et encore plus prometteur que ce qui se fait actuellement. Résultat, cette loi va détourner les investisseurs des sociétés et ils vont regarder du côté des niches fiscales habituelles de l’immobilier ou de l’art. Ce n’est pas tant un problème sur la valeur absolue de l’impôt que sur sa valeur relative par rapport à d’autres domaines…
    Déjà que créer une boite en France c’est mal vu, si en plus on mets des freins à la création, on n’est pas prêt de la retrouver la croissance…



[MàJ] HubiC 0.4 : gestionnaire de transferts, la synchronisation en approche

Le 14/09/2012 à 09h 20

Ah, la commande de mon abonnement payant pour espace illimité est proche alors ! Bon, je vais attendre un peu que la synchro arrive sous nunux et après, fiesta !


Un député veut que les centres d’appel révèlent leur localisation

Le 04/09/2012 à 08h 17






Gericoz a écrit :

Pour les services ouverts 7j/7j et 24h/24h c’est pas plus mal que cela soit à l’étranger, de toute façon ce ne serait pas viable en france. La main d’oeuvre en france est déjà 2 à 3 fois plus chère en journée mais le soir et jour fériés ça explose avec les heures de nuit etc …

Annoncer la localisation est un bon début, au moins les gens auront une plus juste idée des pourcentages de délocalisation de leur opérateur. Je connais des clients qui raccrocheront pour tomber en france.



Bon après c’est pas comme si en France on avait pas les moyens de fournir un service 2424 en métropole avec des horaires normaux. En répartissant correctement les call center sur les DOM/TOM, y’a même moyen de ne pas faire d’horaires décalés. Reste ensuite le problème du weekend (amoindri en jouant sur les fuseaux horaires) mais ça permet d’avoir une alternative 100% française à surcoût minimal. Bien inférieur aux 20 centimes annoncés qui, si je me souviens bien, correspondent au coût des emplois en France sans retirer le coût des emplois délocalisés.