votre avatar

eureux

est avec nous depuis le 6 mai 2005 ❤️

239 commentaires

Le 14/05/2020 à 13h 51


MsGambit a dit:


Je trouve aussi qu’ il serait plus judicieux dans le titre de mettre en rapport avec la population des disques . Sans aller des le calculs des heures qui sont dans le detail de l article , je vois un taux de défaut a 0.3 % chez Seagate qui est 3 fois plus que HGST ( 0.1 % ) et 1.5 fois plus que Toshiba ( qui est a 0.2% ) . Ca fait quand même un grande difference entre les constructeurs.


Il n’y a une différence que si c’est inférieure à la marge d’erreur, et vu que les quantités/durées sont différentes, elle n’est même pas commune. Si l’on souhaite réellement comparer, il faudrait avoir des fourchettes prenant en compte cette marge d’erreur. Comparer 0.1% et 0.3% sur un mélange de modèle, avec des marges d’erreurs mélangés qui sont en partie supérieur à ces %, cela ne veut rien dire du tout.



Avec les données communiqués, il n’y que la possibilité de connaitre un modèle avec réel problème, et sinon, il faut refaire des calculs préalables.

Le 14/05/2020 à 08h 25


gileri a dit:


C’est traité dans la source et dans l’article NI :Et ce taux reste haut pour Seagate.


Le chiffre de 87% est dans un titre, et remit en gros plus bas, alors qu’il ne veut strictement rien dire, ou plutot qu’il ne porte aucune information, mais plutôt une désinformation pour qui survolerait un peu trop vite l’article.



Ensuite, comparer les taux de disques 4To avec des disques 12To n’a pas nom plus d’intérêt. Enfin, les taux ne sont justement pas très haut, que ce soit pour Seagate ou les autres. Blackbaze a publié dans le passé des statistiques où il y avait de réels modèle problématiques avec des taux à 8%. Aujourd’hui, ils ont l’air de globalement se tenir dans une fourchette étroite ou identique vu que statistiquement il y a pour certains modèles une grosse marge d’erreur (qui devrait être affichée/modèles pour être rigoureux).

Le 14/05/2020 à 08h 00

Oui, c’est top, un bon compromis news / explication / technique

Le 12/05/2020 à 09h 44

Je suis parti aussi sur un Mikrotik 309 pour les même raison, mais avec une utilisation mixte optique et RJ45 car c’est plus simple et moins cher en fait, particulièrement dès qu’on commence a avoir de la longueur.



Coté adaptateur, tu as des problèmes sur celui ci?? Car je l’envisage pour mon Synology et je n’ai rien vu à ce sujet…
https://www.inpact-hardware.com/article/1419/qna-uc5g1t-qnap-adaptateur-usb-pour-reseau-jusqua-5-gbs-a-90-euros

Le 23/04/2020 à 11h 30







deathscythe0666 a écrit :



Il suffit de voir les réactions à la préparation de R. Bachelot à l’époque du H1N1 pour comprendre qu’il est totalement vain pour un gouvernement de faire les choses bien puisque tout le monde y trouvera toujours quelque chose à redire.  



 

Il y a tout de même une question d’équilibre. Entre 2013 et 2017, le stock stratégique de masque est resté à 750millions, avec des commandes régulières de l’état car le stock alimentait en continue les hopitaux. Et personne n’a critiqué les gouvernements pour cela.  Et cela ne coutait quasiment rien.



  Macro et son gouvernement on tapé dans le stock sans commandes en parallèle, tout en laissant crever l’usine Bretonne, sans parler de l’autre Lyonnaise qui a démonté les machines datant de Bachelot. Résultat 130millions de masque en début de crise et  aucune capacité de production. C’est cela qui est critiquable.



 


Le 19/04/2020 à 16h 49







haelty a écrit :



Haha et tu as remarqué la solution proposée par Framasoft est exactement ce que propose les solutions envisagées par stopcovid ?



Mais oui, il y a le mal partout, c’est connu.





Sait on quel protocole est envisagé par “stopcovid”? Car j’ai vu passer aussi le protocole ROBERT sur Nextinpact, et on est loin de la qualité du protocole de la BD. 


Le 19/04/2020 à 16h 37







haelty a écrit :



Les id sont générées par le smartphone…





Tu es allé voir le fonctionnement du protocole sur le Github? 



Avec le protocole Robert, les pseudo sont générés par le serveur et reçu lors de l’inscription du service. C’est une farce


Le 19/04/2020 à 16h 25

Entre les ID générés par l’authorité centrale, et l’interrogation régulière de sur ces même pseudo, il y a complètement une possibilité de traçage par l’état. Ces failles sont grossières pour un protocole dit “Privacy”.  Et ne sont pas présente dans le protocole de Google/Apple.



 Cela a été remonté dans leur Bug Tracker, mais cela botte en touche ensuite. Hors de question d’installer un truc pareil.

Le 11/03/2020 à 10h 51







jeff01 a écrit :



Pour info, est-ce que ça t’embêterai de nous dire quels choix vous avez fait concernant le VPN/Téléphonie pour que tout tourne bien ?





Je ne suis pas dans l’équipe responsable, donc c’est un simple avis d’utilisateur:




  • PulseSecure pour le VPN (pas d’avis)

  • OpenTouch Conversation, avec un casque/micro Logitech H390 standardisé pour tous (on valide complétement, certains laissent même tomber le poste téléphonique). Aucune idée coté serveur, mais basé sur SIP


Le 11/03/2020 à 09h 27







letter a écrit :



Beaucoup avaient cette impression chez nous avant que la direction ne soit transparente. On limite car ça coûte cher.



Il faut beaucoup plus de PC portables que de raison, des licenses, une infra VPN/Citrix qui va bien, etc.









Le coté psy, nous l’avons vu, mais ce que tu dis est également vrai. Le “portable” n’est bien sur pas en + d’un pc fixe, mais cela s’organise lors des renouvellement.

Pour aller dans ton sens, le frein financier a été pour la généralisation avec les licences/clef VPN, et un changement de 2 fournisseur a du avoir lieu (mais a ce stade notre direction était très motivé suite à l’expérimentation, donc ça aide).



Suite a un évènement interne , la direction s’est aussi rendu compte que le télétravail pouvait être une part non négligeable du PCA, et que les surcouts était une forme d’assurance peu couteuse vis à vis de problèmes graves (incendies, maladies, …).


Le 11/03/2020 à 08h 42







la_hyene a écrit :



Mon employeur est très motivé pour surtout ne pas en discuter.

Par ailleurs, il faut les outils «qui vont bien.» Quand tout est sous Windows et que la SI ne connait rien d’autre, tu trouves le bec dans l’eau quand chez toi tu as un autre OS.





Chez nous nous sommes tous sur PC portable. C’est donc ce PC qui est utilisé, et non le perso. Il y a une clef VPN (code rotatif) pour la connexion au réseau de la boite, ainsi qu’un logiciel pour rediriger le téléphone en micro/casque.



L’acculturation des  manager est souvent compliqué, et passe souvent par une expérimentation avec des critères à la con qui font que le public est restreint, et une fois que les managers se rendent comptent que les gens sont + efficace, ils assouplissent et généralisent, bizarrement…

Donc le combat à mener n’est pas pour un télétravail à large échelle, mais pour une expérimentation à petite échelle qui leur permettra de se faire un avis.

 Après, si même cela n’est pas possible, c’est qu’ils ont une grosse méfiance envers leurs collègues, la vie ne doit pas être facile et c’est peut-être une boite à fuir.


Le 06/03/2020 à 15h 04







odoc a écrit :



 Combinés ça pourrait donner une contamination, pour un pays comme la France, d’environ 400000 personnes pour environ 15000-20000 morts.





Est-ce que tu pourrais donner une indication sur ces chiffres? De mon coté, sur un modèle SIR on arrive à 600000 morts avec un Ro à 2 et 50% des gens touchés, ou si on prend un Ro à 3.4 (chiffre actuel de l’OMS), on arrive à 350000morts en France. Ceci sans prendre en compte les aspects de saturation des hôpitaux qui font grimper la mortalité à 3.5% (retour de ce qui s’est passé en Italie) car les seuils de saturation ne sont pas communiqués.



Les quelques lecture que j’ai trouvé intéressante, sur un modèle SIR:

https://linuxfr.org/users/liorel/journaux/des-virus-et-des-hommes

Et sur un modèle SEIQR et du code python de simulation avec lequel jouer

https://linuxfr.org/users/jben/journaux/des-virus-des-hommes-et-de-la-dynamique



Et les taux de mortalité. Il y aurait moyen de croiser cela avec l’INSEE pour évaluer au mieux:

https://www.worldometers.info/coronavirus/coronavirus-age-sex-demographics/

 


Le 03/03/2020 à 15h 58







WereWindle a écrit :



Est-ce toujours le cas si on considère qu’une guérison ne donne pas une immunité ? (en supposant que ce cas - dans la partie concernant la Corée du Sud, tout en bas - n’est pas isolé¹)





 Cela reste à 50% d’immunisé si ces cas existent en nombre, mais il faudrait monter à plus de contaminés à la base pour arriver à ces 50%.  Donc on irait encore bien au delà des 600000 morts. Espérons que ce cas soit très marginal!


Le 03/03/2020 à 14h 42







Groupetto a écrit :



Y’a qu’à voir la réaction des Chinois - ils ont mis 60 millions de personnes sous cloche, et même comme ça ils ont énormément de mal à s’en sortir.

 



Faut bien comprendre qu’on est au début de l’épidémie, et qu’on va voir une croissance exponentielle des cas (ça va doubler tous les deux / trois jours), avec beaucoup de morts à la clef.





En chine comme ailleurs, ils ne s’en sortiront que lorsque le virus aura son point d’équilibre, donc avec un Ro de 2, 50% de la population immunisé / non contaminant. De base, et avec le taux de mortalité actuel, cela fait 600000 morts en France.



Toutes les procédures visant à ralentir la propagation ne changeront pas ce chiffre de 50%, mais permettront de gagner du temps et réduire la mortalité:




  • D’aprèshttps://drphilbe.blogspot.com/2020/03/les-chiffres-que-vous-trouverez-ici.html “la mortalité du virus en Italie est de 2,6%.

    Elle monte à 3,9% dans les zones où les hôpitaux ont été saturés.”

  • La mise au point de protocole de soin pour de meilleurs traitements.



    Là ou l’on voit qu’on est pas très rationnel, c’est qu’on devrait, avant que les hopitaux soient saturés,  contaminer rapidement et volontairement les gens avec les grosses chances de survies (enfants, jusqu’à moins de 40ans) en environnement contrôlé,  pour atteindre les 50% dans les meilleurs conditions, et pour les meilleurs “candidats”. Mais c’est infaisable politiquement et sociologiquement et on va laisser faire le hazard.





     

     


Le 10/02/2020 à 13h 12


max13fr a dit:


Aller je commente quasiment jamais mais je me motive :)


Je te remercie bcp sur ton commentaire.
J’hésite pas mal a propos de ma future solution domotique, et je ne suis pas motivé pour aller vers du proprio ficelé, et très sceptique sur la qualité/pérennité de ce que je pouvais faire avec Jeedom. La pérennité, cela comprend à continuer à être motivé à maintenir un truc qui me convienne (montée des versions, qualité de l’architecture…).
Je vois ce que je vais essayer en premier.

Le 07/02/2020 à 09h 09







fofo9012 a écrit :



Pour les replay le plus simple est d’enregistrer les programmes TNT : c’est gratuit, sans DRM ni publicité, en 1080 et ne nécessite même pas d’accès internet …





Bien moins de CO2 dégagé également… Soit avec une box de FAI, ou alors avec une clef USB TNT dans un NAS ou RaspberryPi, et un logiciel qui fait le job (tvheadend, un soft de NAS)…


Le 04/02/2020 à 15h 52







Alain EtCo a écrit :



Perso, ca ne me dérangera pas. 

Eux ne se gêneront pas pour le faire s’ils deviennent “dominants”





J’ai cité les platistes comme caricature de la débilité fausse

scientifiquement, mais l’impact sur le monde est neutre. Les

négationnistes du réchauffement climatique par contre, ont effectivement dépensés des milliards en communication depuis les 70’,  voir les révélations sur les lobbying d’Exxon, Total, etc pour faire croire que non, il n’y a pas d’influence humaine.  Et même maintenant, que l’on pourra s’adapter et qu’on peut voir plus tard.

Le consensus scientifique est total, mais dans les faits, ce sont toujours eux les “dominants” de l”(in)action. Il y a juste l’armure du mensonge qui commence à se fissurer.


Le 04/02/2020 à 11h 59

On va aussi purger:




  • Les complotistes du 11 septembre?

  • Les platistes?

  • Les négationnistes du réchauffement climatique?



    Cela pose des question sur qui donne la définition du mensonge, mais si l’on reste sur ce qui est scientifiquement prouvé, cela fera du ménage et de l’économie de CO2 

Le 04/02/2020 à 08h 54


OlivierJ a dit:


Je parie que la plupart des gens qui ont un NAS le connectent juste à leur ordinateur. Donc l’aspect “réseau” est sans doute secondair


Certainement pas car la plupart des NAS ne se connecte QUE via l’interface réseau à un PC.



Je pourrais dire que du coup la vitesse de l’interface réseau est importante dans un contexte de NAS, mais je ne sais pas si cette discussion a encore un intérêt si tu n’arrive pas à envisager que tes besoins ne sont peut-être pas 100% les même que ceux qui achètent un NAS. Et que ceux ci ne sont pas forcement des gens qui se trompent dans leurs achats ou dans la manière de l’utiliser puisqu’ils ne font pas comme toi en achetant un NAS et non un DAS.

Le 03/02/2020 à 20h 36


OlivierJ a dit:


Un NAS c’est à la base un gros disque,


Euh, si tu veux, mais sans oublier “en réseau”, je rappelle: Network Attached Storage
Comparer ton boitier et un NAS, c’est comparer des choux et des carottes. Pour obtenir une équivalence, il faut comparer le Synology d’un coté, et ton JBOD+ton PC, vue de l’interface réseau.
Ainsi:




  • Quelle vitesse a ton interface réseau en comparaison du Gigabit du Syno?

  • Quelle vitesse à le SATA3 interne du Syno en compaison de l’USB3 de ton JBOD?

  • Quelle consommation électrique pour le Syno en comparaison de ton PC+JBOD?
    etc.



Là on discuterait de quelque chose d’équivalent.

Le 03/02/2020 à 16h 09

Ah oui, je suis sérieux, je n’envisageai absolument pas d’utiliser un NAS comme une grosse clé USB. Je ne crois même pas que cela soit possible avec un NAS, de chez Synology du moins. Les ports USB sont par exemple pour le backup/import et ajouter des périphériques ( Tuner TNT, Onduleur, …).



Donc oui, je suis sérieux, je ne parle que des cas possibles, ou du moins ceux que je SAIS être possible, mais je n’ai pas la science infuse non plus, :transpi:

Le 03/02/2020 à 15h 22


OlivierJ a dit:


Mais il n’y a aucun sous-entendu, j’ai écrit en toutes lettres “USB 3” :mad2: Le boîtier en question en comporte 2 d’ailleurs. J’ai un boîtier (autre) avec de l’USB 3 et je ne suis pas limité à 112 MB/s, mais par les disques, ce qui est logique vu la bande passante de l’USB 3. Et l’article ne mentionne pas que la limite vient de l’Ethernet.


Disons que j’ai du mal à comprendre dans quel modalité d’accès tu te situe… Les taux d’accès sont classiquement donnés entre un ordinateur et le NAS en mode réseau (limité à 1Gbit/s).
Il y aurait moyen de passer en USB3, mais pour un PC, il faudrait utiliser un adaptateur comme le QNAP à 5Gbit/s, mais je crois que le drivers n’est compatible qu’avec de l’Intel.



Sinon, on peut utiliser aussi l’USB pour écrire dans une clef USB (ou SSD externe), en mode export/backup, mais ce n’est pas une communication classique d’un débit lecture/écriture concernant un NAS.
Ou alors tu penses encore à un autre mode d’utilisation?

Le 03/02/2020 à 12h 45


OlivierJ a dit:


Heu, tu as loupé la partie « C’est beaucoup moins que ce que permet l’USB3 » :-)


Ton sous entendu n’est pas très explicite. Les 112 Mo/s concerne la carte réseau. Et même s’il est théoriquement possible de mettre une autre carte réseau sur l’USB3, c’est théorique à ce stade.

Le 30/01/2020 à 12h 17

la carte d’Orange est par contre + jour, mais il faut zoomer jusqu’à avoir l’immeuble avec son numéro.

Le 29/01/2020 à 13h 02

Le problème de la 5G, c’est aussi et surtout le problème de la hausse de consommation d’énergie du pays de 2% et de ses ressources minières. Avec le problème du réchauffement climatique (et les morts qui vont en découler), pas sur qu’on ait besoin de cela, malgré les milliards de licence.



Les ondes à coté, même au niveau sanitaire, c’est anecdotique.

Le 28/01/2020 à 09h 36

J’ai testé les différents calculateurs de puissance, celui de MSI est le plus précis à mon avis:
https://fr.msi.com/power-supply-calculator
Certains ne gèrent même pas les configurations sans cartes graphiques, d’autres plantent.



J’arrive royalement à 160W max dans le pire des cas.

Le 16/01/2020 à 12h 28


David_L a dit:


Enfin globalement les deux n’ont rien à voir.


Ben disons que c’est un câble qui peut faire passer de l’alimentation et du réseau. :windu: On pourrait rajouter l’USB3 à la liste aussi. :D
Plus sérieusement, c’est vrai que cela commence à faire beaucoup 30W, mais il y a encore un peu de marge avant d’alimenter une machine à laver sur un câble RJ45 :transpi:

Le 13/01/2020 à 14h 44

Je suis allé voir les mesures, sans dire que c’est mal, on n’est loin d’avoir des choses qui auront un quelconque effet sur nos engagements CO2…

 Chaque français est à 9T de CO2 par an, on devrait être à 2. Quel va être le bilan de ces réformes? Y a t’il eu un quelconque chiffrage de ces réformes ou sommes nous dans de l’affichage de mesurette écolo en vue des élections?

Le 24/12/2019 à 05h 39

C’est le solaire qui m’intéresse perso… En fait j’ai un k750 depuis… 8ans au moins, peut être 9. Sauf que j’ai une touche qui déconne un peu à cause d’un garnement.



Le résultat, c’est que je ne voudrais rien d’autre qu’un solaire, trop pratique car pas de fil, mais jamais non plus de panne de courrant, même dans un bureau très à l’ombre, car le k750 était concu pour très peu consommer, pour tenir 3 semaines sans lumière…
Il y a un truc qui me chiffonne dans le ldlc, une batterie fini par mourir, j’ai déjà duchanger celle du logitech, mais là sur le ldlc cela a l’air intégré et non changeable.:keskidit:

Le 19/12/2019 à 12h 56







Icywizer a écrit :



Si on récupère des blocs, alors on est encore tranquille pour 10/20/30 ans d’ipv4.





C’est une légende urbaine, on ne gagnerai que quelques mois à tout casser,  cela ne vaut pas l’effort de ce lancer là dedans alors qu’il y a ipv6 comme solution perenne.


Le 19/12/2019 à 12h 17

Oui, la fibre est bien moins cher, même en particulier. Sur ce que je met chez moi pour mes prises murales, le cable CAT7a de qualité est environ à 1euro le mètre alors que j’ai eu mes fibres sur mesure (déjà serties avec connecteurs) pour bcp moins cher (6euros pour 24m par exemple) . 



Je n’imagine même pas en pro…

Le 05/12/2019 à 15h 59

 







psikobare a écrit :



Pas grand monde n’a de système de fichier qui peut encaisser ça.







Tout le monde n’a pas un NAS,  mais un NAS grand public (Synology, QNAP, Asus…) avec plusieurs plusieurs disques rotatifs en RAID 5 ou 6 te fait un 5Gb s’il n’est pas limité par une carte réseau à 1Gb/s.

 De même pour un SSD sur un port SATA à 6G.


Le 05/12/2019 à 10h 51

Pas vraiment, sauf à imaginer l’usage fichier/NAS à distance (seul point ou le 1G est limitant à mon avis). Mais une connection à 10G permet d’assurer du 1G à chaque membre de la famille.

Le 02/12/2019 à 10h 44

Son opinion n’est pas plus extrême qui ceux qui veulent du “progrès” sans limite pour faire de la croissance sans limite tout en remplissant les caisses de l’état et des actionnaires… le tout sans débat démocratique.

 La question qu’il pose, entre nos engagements de réduction de CO2, et l’exploitation des ressources, vis à vis du gain réel, est une vrai question qui, sans être extrème, pourrait mériter un référendum.

Le 02/12/2019 à 08h 44

Oui, idem sur un pc portable HP du boulot. Au boulot, on a pour le boulot des lecteurs de carte externe USB en plastique transparent, et franchement la partie contact+électronique est vraiment toute rikiki…

Le 28/11/2019 à 12h 45

Il y a une extension pour évaluer notre consommation individuelle:https://theshiftproject.org/en/carbonalyser-browser-extension/

Le 28/11/2019 à 09h 08







fred42 a écrit :



Tant que les USA restent en dehors des accords de Paris, économiser de l’électricité en France (très peu carbonée) est inutile. Avant, indépendamment même des USA, il faut décarboner l’électricité de beaucoup de pays.





C’est un peu hors sujet dans le cas d’internet car les serveurs sont minoritairement en France. La dernière fois que j’ai vérifié, c’était sur un site d’un festival prônant l’écologie, et le site internet était hébergé en Pologne, là où l’électricité est faite avec du charbon.



Ensuite, ensuite, avec 4,56 t/h/an, le français moyen reste au dessus de la moyenne mondiale qui est à 4.37. Et c’est sans compter le CO2 des produits que nous importons.

Les français ne sauveront pas la planète à eux tout seul, mais nous ne sommes pas exemplaire pour autant. Commençons par respecter nos engagements des accords de Paris avant de râler sur les autres pays.



 Et concernant la chine, acheter moins de produits venant de chez eux limitera leur production de Co2. Par exemple, mon smartphone a 5ans et demi et le prochain sera également choisi pour être durable matériellement et logiciellement.



 


Le 26/11/2019 à 13h 33







ThomasBrz a écrit :



Le projet ITER doit permettre de prouver que c’est possible, et si c’est le cas il faudra mettre en place des normes de construction et develloper des outils maisil faut qu’ITER donne un resultat intéressant.



 

Oui, et si c’est possible (les chercheurs n’en sont pas tous convaincu), il y a un délais de 80ans avant qu’on puisse utiliser cette énergie de manière massive. C’est trop tard pour pour régler notre urgence. Cela ne veut pas dire qu’il ne faut pas faire de la recherche dessus, mais il ne faut pas compter dessus pour sauver nos fesses car nous avons 20 à 40ans pour arriver à du 0 carbone, le tout dans un monde qui amorce sa décroissance contrainte par la baisse des énergies fossiles.


Le 26/11/2019 à 10h 56

La fusion, c’est pas avant 80ans en industriel d’après ceux qui bossent dessus. On doit régler le bordel dans les 20 à 30ans, donc on peux oublier la fusion pour l’instant.



Sinon, on parle quand même d’un problème, le changement  climatique, qui va déclencher des morts par centaines de millions, via guerres, maladies, famines et déplacement de masse. Au minimum.



 Donc la “perte de confort” parce ce qu’on doit cliquer sur play entre 2 vidéos, excusez… quoi…. c’est un peu à coté de la plaque.

 Mais j’espère tout de même qu’ils ont prévu aussi d’autres mesures à coté car l’isolation des logements et le remplacement des chaudières aux fioul (à interdire) par de la pompe à chaleur serait autrement plus efficace.

Le 26/11/2019 à 09h 40







Arkeen a écrit :



Mmm, je suis pas convaincu :

* la lecture automatique est

d’or et déjà désactivable (sur YouTube en tout cas). On peut le faire au cas par cas

ou pour toutes les vidéos (auquel cas il faut un compte). Elle veut

p’tet changer le comportement par défaut du lecteur ?





Simplement interdire tout les autoplay. Pour lire une video, il faut cliquer sur “play”. C’est tout. Si c’est sur demande, l’impact positif serait marginal.









Arkeen a écrit :



* Calculer un indice d’impact d’une appli ou une navigation, c’est illusoire, le chiffre donné sera forcement foireux





Une valeur déterminée à partir de la sommes des données uploadés/downloadés, ce que cela génère comme consommation électrique. Il y a là une approximation. La deuxième c’est que les données viennent de différents pays, donc on ne peux y appliquer le taux de rejet CO2 par kilowatt français, mais plutot une moyenne mondiale encore.  Cet indice serait très imprecis mais ferait prendre conscience, un peu, que le numérique n’est pas gratuit au plan environnemental. Vu que les gens utilisent plusieurs navigateur, une alternative/complément serait un cumul de consommation gérés via le compte google/mozilla afin de voir les cumul annuels.



 


Le 28/11/2019 à 11h 48

Très compétitif face aux équivalents QNAP ou encore plus Synology Hate de voir un test.

Le 28/11/2019 à 11h 38







Freud a écrit :



Statistiquement c’est l’inverse : je ne crois pas qu’une seule prédiction alarmiste concernant le climat se soit réalisée.





Toutes les prédictions du GIEC se sont réalisés, et sur les scénarios les plus graves. Si tu souhaites continuer à croire qu’on peut rouler tranquillou en SUV  sur la terre plate porté par les tortues géantes, libre à toi. Mais tu es à la limite du négationnisme….



 Quand aux réfugiés, ça grimpe en flèche depuis 2013. On est quand même passé de 40 millions “stable” à 70millions augmentant en flêche. L’ONU n’a hélas pas été si mauvaise que cela…


Le 28/11/2019 à 10h 29







Qruby a écrit :



Très bon point de départ pour ceux qui veulent comprendre ce qu’il nous attend:youtube.com YouTube



Au début ça fout forcément le moral à zéro, mais après ça permet de se trouver une place dans la société, et d’entreprendre des actions réellement utiles au problème en question.





Oui, très très bonne vidéo pour arrêter d’être con!

Il y en a d’autres de lui qui va leur pesant d’or sur d’autres thématique mais celle ci est top.



Sinon, en complément, mais à voir seulement ensuite,

youtube.com YouTube 

 


Le 28/11/2019 à 10h 20







gg40 a écrit :



J’ai du mal à envisager une disparition de l’humanité.

Notre espèce est hautement adaptative (même avec de la lowtech) en revanche la réduction drastique (sic) de la population je voie pas trop comment on pourrait l’empêcher <img data-src=" />





&nbsp;Pour la disparition, je ne fais pas forcement référence aux typologies de guerres ou de maladie, mais aux boucles de rétro-actions. Une hausse qui entrainent une fonte des pôles qui entrainent une fonte du permafost ce libère + de méthane etc… et qui finissent par rendre la terre inhabitable pour l’être humain.



Le rapport est icihttps://www.pnas.org/content/115/33/8252

et le pire c’est qu’une hausse de 2° seulement, avec le respect des accords de Paris, ne l’exclue pas.



&nbsp;Dans tous les cas, des zones sur terre seront inhabitable à cause d’une température (lié aux degrés d’humidités) ne permettant pas au corps humain de réguler sa température. Donc s’il s’agit de régions riches, villes sous cloche climatisés ou scaphandre, et sinon migration/mort.

Exemple (dépassant le milliard d’individu):

https://www.novethic.fr/actualite/environnement/climat/isr-rse/infographie-la-ca…


Le 28/11/2019 à 09h 30







gg40 a écrit :



J’ai regardé quelques conférence de jancovici et ça m’a foutu le moral à zéro.

Pour lui comme pour d’autre, c’est déjà trop tard, il faut maintenant se préparer au choc…





Pour s’en sortir sans impact, avoir la civilisation durable, oui c’est hélas trop tard, il aurait fallu agir dès qu’on a su, dans les années 70 (voir le rapport Meadows).



Mais on peut toujours jouer sur la violence du&nbsp; choc, car il y a une différence entre 500millions de morts, 1Milliard, 3Milliards ou l’anéantissement total.


Le 26/11/2019 à 10h 28







DoWnR a écrit :



Doit y avoir un gros paquet d’IPv4 à récupérer au niveau des universités… en pas mal d’endroits, les gars ont des IP publiques sur toutes les machines fixes connectées par câble <img data-src=" />





Egalement de grosses entreprises historique comme la Poste ou IBM. Mais j’avais vu des calculs qui montrent qu’en fait c’est une fausse piste car ces pool dormant n’auraient représenté que quelques mois de sursis.

&nbsp;Et puis pourquoi la Poste par exemple se taperait en urgence une reconfiguration de tout son réseau (et on ne parle pas que des poste de travails, mais aussi de sondes industrielles…)?

&nbsp;Pourquoi elle se taperait ce taf en urgence pour reculer&nbsp; de quelques mois la prise de conscience et de travail des autres qui ne font rien sur l’IPv6?



&nbsp;Le problème de l’IPv6, c’est que c’est un Dilemme du prisonnierfr.wikipedia.org Wikipediale jeu de l’IPv6 n’est gagnant que si tout le monde fait sa part. Et vu que ce n’est manifestement pas le cas, il va falloir introduire de la contrainte.


Le 25/11/2019 à 13h 08







Inodemus a écrit :



En conséquence, la qualité de l’accès à Internet dépend du fournisseur d’accès, et la qualité du fibrage dépend de l’entité qui gère le réseau local (commune, département, etc…), Covage s’occupant seulement de l’acheminement des données entre les deux réseaux.





Il y a tout de même des impacts: Covage ne fait pas encore d’IPv6, donc les clients finaux n’ont pas d’IPV6, même lorsque le FAI intermédiaire sait gérer correctement l’IPv6 sur d’autres réseaux.


Le 19/11/2019 à 13h 38


TTaz a dit:


Le NAS sur lequel j’ai essayé est aussi un DS1815+Et merci pour le deuxième lien, je ne connaissais pas la version pour le chip d’Aquantia ! …mais pas la peine de demander un ajout, la version pour l’avoton existe déjà dans les release !


Oh merci! Je vois effectivement la release. C’est juste le wiki qui n’est pas clair ou à jour donc. Tout mon équipement est démonté pour cause de travaux lourds chez moi (avec au passage prises murales et passage de cable CAT7 et fibre optique), mais dès que tout est en place, je me lance!
Merci à toi, sans ton texte, je n’aurai pas trouvé le lien vers la version Aquantia non plus!

Le 18/11/2019 à 09h 58


TTaz a dit:


github.com GitHubJe préfère poster ici car je me dis que ça peut intéresser du monde.


Il existe l’équivalent pour le QNAP QNA-UC5G1T à 5Gbit/s



github.com GitHub



Probablement avec les même contraintes. C’est d’autant plus intéressant qu’un NAS avec des disques et RAID corrects est sensé fournir entre 4 et 5Gbit/s s’il n’est pas bridé par un port à 1Gbit/s.
Mon NAS n’est pas dans la liste (DS1815+ en Intel Atom C2538 2.4 Ghz). Je vais demander l’ajout on sait jamais.

Le 10/09/2019 à 11h 53







yl a écrit :



Faut pas confondre avec un autre 10, mais windows… Là, c’est du rolling-release. Et à chaque fois des utilisateurs plus ou moins sévèrement dans la mouise quand ce n’est pas carrément leurs données qui sont touchées.



Et quand on veut pouvoir compter sur une machine, Debian est au contraire une solution tout ce qu’il y a de plus stable et sans fioriture.





Faut pas confondre rolling release et roulette russe.&nbsp;&nbsp;rolling release, c’est juste qu’elle évolue progressivement et non par saut de versions. L’axe&nbsp; stabilité&lt;-&gt;proche du dev est orthogonale, et on pourrait très bien faire une Debian en rolling-release orienté stabilité qui évoluerait par touche successive plutôt qu’en maj massive. Je serais même client pour certains types de serveurs…



Pour le Desktop, j’utilise du rolling release (opensuse tumbleweed) et c’est ce n’est pas “plantogène”, juste basé sur les releases des composants utilisés.&nbsp;