votre avatar

fry

est avec nous depuis le 11 avril 2017 ❤️

1298 commentaires

Le 14/05/2020 à 09h 22


AncalagonTotof a dit:


Parce qu’ils sont les moins cher ?Malgré les nombreuses pannes que j’ai eu sur du Seagate, jusqu’à présent, je continue sur cette marque, à cause essentiellement du gros gap de prix avec WD & cie.Mais ça pourrait changer. Je traîne un problème récurent sur mon NAS/Linux/RAID 5/md/LVM. Je vais pas refaire tout l’historique ici, mais est-ce que quelqu’un connaîtrait un lien de cause à effet entre Seagate et ce genre d’erreur : kern.log:Apr 12 15:16:02 xxx kernel: [66687.793598] ata3.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x6 frozen kern.log:Apr 12 15:16:02 xxx kernel: [66687.793617] ata3.00: failed command: FLUSH CACHE EXT kern.log:Apr 12 15:16:02 xxx kernel: [66687.793629] ata3.00: cmd ea/00:00:00:00:00/00:00:00:00:00/a0 tag 19 kern.log:Apr 12 15:16:02 xxx kernel: [66687.793629] res 4000:ff:81:00:00/00:00:00:00:00/40 Emask 0x4 (timeout) kern.log:Apr 12 15:16:02 xxx kernel: [66687.793645] ata3.00: status: { DRDY } kern.log:Apr 12 15:16:02 xxx kernel: [66687.793652] ata3: hard resetting link kern.log:Apr 12 15:16:02 xxx kernel: [66688.269596] ata3: SATA link up 3.0 Gbps (SStatus 123 SControl 300) kern.log:Apr 12 15:16:02 xxx kernel: [66688.276137] ata3.00: configured for UDMA/133 kern.log:Apr 12 15:16:02 xxx kernel: [66688.276151] ata3.00: retrying FLUSH 0xea Emask 0x4 kern.log:Apr 12 15:16:02 xxx kernel: [66688.276353] ata3: EH completeAprès ça, j’ai le choix entre un reboot, ou des perfs diminuées (UDMA/133). Après le reboot, c’est l’épée de Damoclès : je sais que ça se reproduira, après 1 jour, ou 25 … Les câbles SATA ont été changés. J’avais le problème sur une machine (MoBo/CPU/RAM) M-A avec un set de disques D-A. Même problème avec M-A et D-B. Même problème avec M-B et D-B. Je d’viens fou !


c’est quoi tes disques exactement ?
je me suis mangé quelques déconnexions de l’usb (linux me désactivait totalement l’usb, fallait rebooter pour avoir de nouveau accès au disque, et j’ai pas encore bien compris pourquoi, peut-être la puce qui fait la conversion sub3 / sata, et/ou des latences dues au fait que c’était des disques “SMR” (disons que c’est arrivé plusieurs fois d’affilée lors d’utilisation intensive de disques SMR, mais la dernière fois c’était avec un disque normalement pas SMR, donc je sais plus trop quoi penser))
c’est ton “frozen” qui me fait poser la question

Le 13/05/2020 à 17h 08

c’est de la fibre pour ma part, “pour 30Go” ça me fait penser à du mobile, c’était peut-etre pas les mêmes campagnes de pub

Le 13/05/2020 à 13h 06

alors dans mon cas, c’était la com’ sfr, et la formulation ambiguë me semblait suspecte dès le début, et j’ai “tristement” constaté que j’avais bien senti venir le piège



je sais pas quelle pouvait être la com’ bouygues

Le 13/05/2020 à 12h 35

alors, pour le coup du “à vie”, là où ils ont été bon, c’est dans la formulation

j’ai une fibre “red by sfr”

et c’est la “promo de 10€” qui est “à vie”, pas le tarif de base, qui s’est mangé 3€ de hausse y’a quelques mois

du coup je suis passé de 10 à 13€ (théoriquement en incluant l’option “débit+” ou un truc du genre, donc e passant de 100Mb/s à 1Gb/s normalement

j’ai testé le débit y’a 1 ou 2 mois, ça m’a toujours l’air limité à 100Mb/s …)

Le 13/05/2020 à 13h 18

vi, dans les options de la mini 4k

je sais plus quels sous-menus il faut ouvrir, mais y’a de quoi activer / désactiver le passthrough et 3 options sur le CEC de mémoire (actif ou non de manière générale, si la box peut piloter d’autres équipements via le CEC, et si la box peut être pilotée par d’autres équipements)

des quelques essais que j’avais fait, l’ampli et le projecteur ne semblaient pas prendre en compte l’allumage de la box par exemple, mais c’était peut-être avant la dernière m-à-j

Le 13/05/2020 à 12h 51

vérifie les paramètres du “CEC” et du “hdmi passthrough”

selon les chaines le son est pas au même niveau, et mycanal certaines sont décodées directement par mon ampli, (donc changer le volume depuis la mini 4k change rien du tout) quand d’autres le sont par la box

je sais plus si j’ai constaté la même chose sur la nouvelle interface canalsat



selon ce que je branche sur l’ampli le volume en entrée n’est pas le même, par exemple la xbox avec l’ampli à “12” c’est suffisant, la box ça dépend, des fois 20 suffit, mais pour certains films en replay je devais avoir l’ampli à 40 … quand je branche un ordi c’est pareil, des fois 20 suffit, dès fois vaut mieux 35, je ne jurerai pas que la mini 4k est la seule fautive pour les soucis de volume sonore

Le 11/05/2020 à 10h 19

perso, quitte à changer de smartphone (l’actuel n’a de “3g” que la théorie, en pratique il galère, mais 150€ en 2012 …) j’en prendrai un “5g” selon toute vraisemblance

pas forcément pour le débit

mais les amélioration niveau protocole, latence etc, peut-être même réseau “full ip” ce qui n’est pas encore le cas en 4g il me semble

 

mais c’est pas ce qui est mis en avant dans les pub effectivement, on a le même défaut actuellement qu’à une époque avec les mhz/ghz des processeur, des mega-pixels des apn puis des smartphones …

 

et “5g” ne veut pas dire obligatoirement ondes millimétriques et donc multiplication des antennes

il me semble que c’est juste l’une des possibilités, il y a plusieurs plages dont quelques unes proches de la 4g, non ?

Le 07/05/2020 à 14h 36

faudra que je regarde ça de plus près, merci :)

Le 06/05/2020 à 12h 19

lol, merci

je me demande si j’étais pas tombé dessus et que j’avais pas réussi à le faire marcher comme je voulais,

d’un autre coté ça a pas bougé depuis 4 ans visiblement (ou 2 ans pour les sources), je sais plus quand je m’étais penché sur la question, soit j’étais un manche, soit ce qui plantait a été corrigé y’a 2 ans XD (et l’un n’empêche pas l’autre  :/)

Le 06/05/2020 à 11h 03

j’ai pas (encore ?) de linky, donc pour le moment j’ai que la téléinfo

faudrait que je m’y remette pour le coup, mais parser du texte dans un esp8266 m’avait un peu découragé lors de mes essais

Le 06/05/2020 à 10h 05

“zut”, je peux donc pas te piquer de code arduino / raspberry pour lire tout ça XD



merci pour les infos en tout cas :)

Le 06/05/2020 à 09h 13

je voulais laisser tourner un esp8266 pour parser cette sortie et qui ferait ces stats là pour les envoyer ensuite sur un pi / nas / … mais j’ai jamais eu le courage de finir le code arduino qui irait bien :s



tu tournes avec quoi toi ? c’est un pi qui a ça de branché sur un port usb et qui s’occupe de loguer ?

Le 06/05/2020 à 08h 09







brazomyna a écrit :



C’est même plus précis que le relevé de conso qu’on trouve sur le site web du Linky, car les remontées sont en temps réel, toutes les 10-15 secondes environ.







je crois que c’est même moins que ça, c’est en continu, le temps d’envoyer toutes les infos, donc selon l’abonnement et le nombre de lignes / caractères à envoyer c’est plus court

j’ai fait le petit montage avec 3 composants pour pouvoir lire la sortie téléinfo via la console arduino, ça défile en permanence, le délais entre 2 boucles est uniquement le temps d’envoyer la boucle courante …


Le 07/05/2020 à 14h 27


David_L a dit:


Franchement non : tant chez AMD que chez Intel, les ouverture pour la fixation des ventirads ne bouge pas. C’est seulement quand on passe d’une gamme à une autre qu’il faut un adaptateur (ou quand on monte en TDP qu’il faut un autre ventirad)


noté



c’est juste que j’ai l’impression qu’a chaque nouveau socket intel, noctua fait une annonce pour dire qu’il suffit de leur fournir une preuve d’achat pour qu’ils envoient le kit d’adaptation …



tant mieux si y’a encore moins de changement au niveau mécanique



(précision, j’ai pas changé de machine depuis une dizaine d’année, c’est donc un souvenir des articles vus sur le net et pas une constatation “zut ça a encore changé, je vais contacter noctua” … (d’ailleurs j’ai pas de noctua XD) )

Le 07/05/2020 à 14h 03

l’avantage du socket multi-génération, c’est aussi pour les solutions de refroidissement tierces, tous les constructeurs ne font pas forcément comme noctua qui propose souvent gratuitement des kit d’adaptation à chaque nouveau socket qui sort … (même si ça impacte moins le budget que garder ou changer une CM, c’est toujours ça de gagner quand on peut garder un ventirad / waterblock @50€ ou plus)

Le 07/05/2020 à 12h 09


brazomyna a dit:


Utiliser shift + touches (chiffres, etc) est une habitude à prendre, mais une fois l’habitude ancrée, tu deviens beaucoup plus efficient cat tes mains ne bougent plus du tout au dessus du clavier ; tu évites ainsi nombre d’allers retours lents et fatigants. Je t’encourage à essayer.J’y viens tout, tout doucement, mais c’est le même principe pour les utilisateurs des éditeurs de texte style ‘vi’ où absolument tout se fait au clavier. Ca dispense de l’usage de la souris et évite ainsi tous les allers-retours souris <=> clavier qui fatiguent les bras/poignets/mains et font finalement perdre énormément de temps cumulé.


pour gagne en efficience, faudrait déjà que je tape sans regarder le clavier (même si en fait j’ai tapé avant d’avoir vu la touche), je pense pas que mes décollages soient le plus gourmand en temps pour le moment :)



pour le coté “fatigue”, j’ai pas de souci, j’ai les bras posés sur le bureau, et avec mes grandes paluches j’ai pas à bouger tant que ça pour jouer sur le pavé numérique :)

Le 07/05/2020 à 08h 44

pour ma part en dev’ web j’utilisé énormément le pavé numérique, pour les commentaires par exemple, le “/” est bien plus rapide d’accès je trouve, pareil pour les “*”, “-”, “+”, “.”
et selon les cas j’utilise la touche “entrée” en tapant à l’aveugle en bas à droite du clavier, pas besoin de viser c’est la touche tout au bord :D



là je suis sur un portable, j’aime beaucoup la frappe, par contre y’a 2-3 trucs qui me gavent :




  • la touche “><” qui est a droite de la barre d’espace, au lieu d’entre “maj gauche” et “w”

  • “µ*” qui est .. entre “entrée” et “retour arrière” (entrée est donc horizontale)

  • les flèches qui viennent s’incruster sous “entrée” et donc compressent les touches à gauche de la barre d’espace (sauf “flèche droite” qui vient bouffer le “0” du pavé numérique en se calant sous le “1”)




wackyseb a dit:


Erreur, utiliser une fois le trackpad c’est l’adopter à jamais. C’est incomparable en terme d’ergonomie par rapport à un touchpad Et en professionnel en déplacement, je ne me promène pas avec ma souris


euh, alors,




  • le toutchpad c’est le grand rectangle tactile

  • le trackpoint c’est le “micro-joystick” entre “g” et “h”



qu’appelles-tu “trackpad” que tu opposes à “touchpad” du coup ? je suis un peu perdu :s

Le 05/05/2020 à 07h 19


patos a dit:



SartMatt a dit:



white_tentacle a dit:



OlivierJ a dit:


merci pour vos différentes réponses :)

Le 04/05/2020 à 15h 05


SartMatt a dit:


Le blindage, mais aussi la conception même du câble : pour un même câble, passé un certain seuil, plus tu augmentes la fréquence, plus le signal s’affaiblit vite (effet de peau : à mesure que la fréquence augmente, le signal se “concentre” dans une couche de plus en plus fine autour du conducteur, ce qui limite la section effective et augmente donc la résistance). La parade à ça, c’est de faire des tresses en utilisant des conducteurs plus fins, pour qu’ils restent utilisés sur l’intégralité de leur section. Mais ça ça augmente le coût du câble, tout en augmentant aussi sa fragilité.


t’es sur que t’es pas en train de te faire avoir par les pub pour matos “audiophile” qui mettent en avant un connecteur plaqué or pour … un câble toslink (fibre optique) ? ou un truc du genre ?



c’est une vraie question hein, j’ai pas les connaissances nécessaires sur les limites physiques des câbles en fonction des fréquences



c’est de quel ordre la section des conducteurs dans un câble hdmi ?



on a quoi dans un câble rj45 ? (c’est juste pour avoir un point de comparaison)



tu as piqué ma curiosité, mais je me demande à quel point ces limites physiques sont proches de ce qui est effectivement produit dans les câbles du commerce.

Le 04/05/2020 à 08h 14


SartMatt a dit:


Le port n’a pas changé physiquement, mais la fréquence du signal est passée de 165 MHz (1.0 à 1.2) à 340 MHz (1.3 et 1.4) puis à 600 MHz. Donc il faut bien un câble prévu pour cette fréquence, un câble conçu pour moins ne fera pas forcément l’affaire, et ce n’est pas qu’une question de qualité, on ne peut pas dire qu’un câble conçu pour 165 MHz qui ne supporterait pas un signal à 600 MHz est un câble de mauvaise qualité. Il a juste été conçu pour d’anciennes spécifications.


hum, en un sens je comprend l’idée, cependant un câble c’est passif, qu’est-ce qui, dans la conception, fait qu’un câble “supporte” une certaine fréquence ?



j’aurai tendance à imaginer que c’est surtout un souci de blindage (au pifomètre hein), un “bon” câble sera peut-être “sur-blindé”, du coup même s’il a 10 ans, un signal à 600MHz passe nickel.
alors qu’un mauvais câble aura un blindage minimal, avec un vieux protocole de test (en usine j’entends) qui utiliserait toujours un vieux matos hdmi 1 ne testerai qu’un signal 165MHz ?

Le 30/04/2020 à 17h 01


Norde a dit:


Pas du tout, tu poste d’ailleurs un commentaire à partir d’un outil dont les possibilités ont explosées mais donc la complexité d’usage à fortement diminuée : un ordinateur ^^


pas si sûr que ça que ça soit plus simple, on a surtout intégré un certain nombre de choses qui semblent maintenant “naturelles”, maintenant a peu près tout le monde sais comment se servir d’un clavier (on appuie sur le bouton avec la lettre, elle apparaît à l’écran, en gros), mais faut saisir le mot de passe pour se connecter sur l’ordi, puis faut aller ouvrir un navigateur, puis saisir login / mdp pour face book, choisir à qui on veut écrire …
au temps des ordis avec carte perforée, y’avait moins d’étapes
même si on déverrouille avec une empreinte ou une reconnaissance faciale, c’est juste une surcouche pour masquer la complexité



idem pour les consoles, y’a 2030 ans tu mettait la cartouche, tu allumais et hop tu jouais, maintenant tu allume, tu te logue, tu vérifie ta connexion a internet, tu vas chercher dans ta bibliothèque dématérialisée (ou du enfourne le disque, ça ça peut etre comme “avant), si y’a pas de m-a-j tu peux lancer le jeu, et éventuellement dans tout ça tu choisis le profil du joueur et autres joyeusetés



on s’y est habitué à cette complexité d’usage, mais elle est loin d’avoir diminuée

Le 04/05/2020 à 15h 26

bah au lieu de juste “rdc”, suffi que ce soit un angle de rue avec passage piéton ? ou arrêt de bus ? là du coup y’a de quoi avoir une détection prolongée non ?

Le 04/05/2020 à 10h 45

j’avais évoqué le même genre d’idée dans une news précédente

&nbsp;cf mes commentaires et réponses de Stéphane Bortzmeyer ici :

nextinpact.com Next INpact

Le 04/05/2020 à 11h 12


Soraphirot a dit:


C’est déjà le rôle de l’étage d’alimentation de ta carte mère, qui convertit le 12V en 1V~1,5V.Par contre les SSD M.2 ont l’air de fonctionner encore en 3.3V, je suis curieux de savoir si il est déjà obtenu par conversion ou si ils utilisent le rail 3.3V.


à mon avis il y a quand même un étage pour réguler le 3.3 sur la CM, que ce soit pour stabiliser le rail de l’alim, ou pour convertir depuis un rail 5 ou 12v



du coup on va avoir droit aussi à des CM 80+ bronze ou 80+ platinium ?
on va avoir une alim avec un certain rendement pour faire 220->12, mais c’est de quel ordre le 12->5 ou 12->3.3 ou même 12->1.x des processeurs ?

Le 30/04/2020 à 17h 25

faudrait voir la citation d’origine, est-ce qu’on a pas perdu un peu lors de traductions successives ? dans le genre “90% de la population (qui dispose d’un smartphone) télécharge …”

ça me semblerait pas si déconnant comme affirmation (je fais partie des 10% cela dit XD), même si peut-être un poil arrondis (encore que, même pas sûr, mes oncles et tantes sont bien sur facebook)

Le 30/04/2020 à 15h 46

merci pour la réponse argumentée et les explications :)

&nbsp;

je pensais “blockchain” pour le coté décentralisé utilisé par les cryptomonaies, monter un miroir est simple, enregistrer dans la blockchain ne se fait que sous conditions (preuve de travail pour certaines crypto etc), c’est peut-être qu’une fraction de ce que renferme la notion de “blockchain”, mais c’est à ça que je pensais.

&nbsp;

l’anonymisation me semble “raisonnable”, car les utilisateurs lambda n’auront aucun moyen de retrouver un individu en particulier à partir d’un identifiant unique rendu public, ça n’empêchera bien sur pas les laboratoire / médecins / autre entité qui publiera les id de retrouver quel était le patient en question, mais ils n’auront pas besoin de passer par là.



à la réflexion, je crois comprendre la dernière partie sur la ré-identification, je suppose que c’est pas dans le sens “on trouve un id publié et on trouve son nom”, c’est dans le sens “j’ai croisé les id X, Y et Z, et c’était les jours ou je suis allé au bureau de tabac, donc c’est quelqu’un que j’ai croisé sur le chemin”, et de fil en aiguille, sans forcément connaître nommément la personne à partir de l’id, on pourrait remonter jusqu’au contact. c’est à peu près ça ?



en résumé, soit on centralise les données de contact au risque que l’entité centralisatrice s’en serve pour tracer les personnes au-delà de la crise sanitaire actuelle (et/ou on fait rentrer cette idée dans les mœurs, ce qui est craint par beaucoup et mis en avant contre l’appli annoncée)

soit on décentralise, au risque de laisser la possibilité technique d’une identification de personnes contaminées et les dérives qui peuvent en découler :s



pas si simple tout ça (j’avais bien dit que c’était une idée de 3 neurones en 10 minutes <img data-src=" />)

Le 30/04/2020 à 14h 50

idée toute conne :

est-ce qu’un système type “blockchain” (pour la décentralisation) dans laquelle les labos / medecins qui dépistent un patient sont les seuls à pouvoir écrire, à l’aide du smartphone du patient, les identifiants aléatoires qu’il a eu au cours des X derniers jours ne pourrait pas faire le taf ?

avec un identifiant aléatoire par jour

si t’as croisé un identifiant dans la chaîne (que le téléphone pourrait consulter le soir en wifi à la maison par exemple) il te pousse une info “vous avez été proche d’un cas répertorié de covid 19, consultez votre médecin” …

du coup, pas de trace centralisée analysable n’importe quand, anonymisation totale, et pourtant tout un chacun pourrait savoir s’il a été en contact avec qqn porteur (et utilisant l’appli)

et seul le téléphone sait les identifiants aléatoires qu’il a pu communiquer en bluetooth et qu’il a rencontré



j’ai raté un truc ou y’a une piste a creuser ? (réflexion en 10 minutes avec mes 3 neurones hein ;) )

Le 29/04/2020 à 16h 08







Guinnness a écrit :



Suppo à la thermite le remède ultime à tous les problèmes de trous d’uc de l’inculture <img data-src=" />

Ca coûte presque rien à fabriquer en plus <img data-src=" />









Ami-Kuns a écrit :



A la mode barbare comme contre les taupes, du gaz dans les trou, et t’allume le briquet.<img data-src=" />





XD vous êtes ignobles

pauvres taupes

mais j’ai bien ri


Le 29/04/2020 à 14h 15







darkweizer a écrit :



https://youtu.be/fy5ewMwLvMc



j’avais pas cliqué sur le lien que j’étais sûr de ce que ça allait être, dans le mille :)





jpaul a écrit :



Et si, pour une fois, ils allaient se faire un peu cuire le cul à thermostat 8 ?



pas assez, à ce niveau faut du thermostat 80


Le 29/04/2020 à 10h 21

à vomir

y’en a qui doutent de rien



autant, rémunérer les auteurs / interprètes des pièces diffusées et / ou l’entité qui a payé les droits pour l’enregistrement initial (et la diffusion, sinon pourquoi avoir enregistré) me semble défendable

autant que l’état file 1 million / mois à la sacd c’est aberrant



comme d’autres l’ont dit, identifier le diffuseur est assez simple, à la sacd d’aller en justice ou de trouver un accord avec ledit diffuseur, c’est un tout petit peu leur boulot, enfin en théorie

Le 29/04/2020 à 16h 07







spidermoon a écrit :



500€ pour le délit de conduite sans assurance. C’est donc aussi grave de télécharger que conduire sans assurance.





non, c’est aussi grave de ne pas savoir protéger sa connexion que de rouler sans assurance.



‘sont fous


Le 29/04/2020 à 14h 07


Zebulon84 a dit:


D’un autre coté, si même un journaliste et/ou passionné d’informatique ne sait pas programmer un test simple pour déterminer si c’est du CMR ou du SMR, il est probable que cela n’ait pas vraiment d’importance pour la très grande majorité des utilisateurs, même parmi les “2% d’utilisateurs avancés”.Et ça a certainement encore moins d’importance sur un SSDHD, ou la partie SSD sert justement de cache d’écriture pour que le SMR soit quasiment transparent.


le cache ssd est assez ridicule hein, les modèles avec 8Go vont pas aider des masses pour le smr, les c’est pas le but de la partie ssd qui est de pouvoir accéder aux données rapidement, le défaut du smr c’est l’écriture

Le 29/04/2020 à 11h 06


Claudio91 a dit:


On n’achète plus tant jusqu’à qu’il indique correctement les caractéristiques de leurs disques. Et basta !


si seulement …
tristement je doute que les plus gros clients, hors ceux qui ont des besoins spécifiques et des contrats / modèles “dédiés” (datacenter par exemple), soient au courant qu’il y a ce pb, et s’en inquiètent
c’est pas les 2% d’“utilisateurs avancés” qui parcourent NXI et autres forums qui vont beaucoup faire baisser les ventes à mon avis :(

Le 29/04/2020 à 07h 30


NSACloudBackup a dit:


C’est quand même dingue cette histoire. Ils se prennent pas pour de la merdes ces constructeurs. La notion de transparence les déranges, c’est drôle ça. Ils oublient un moment que le client est roi ou quoi ? Je pense que je vais m’abstenir de leur donner de l’argent à l’avenir comme ça on est quitte.Ils devaient être jaloux que les fabricants de SSD aient leurs technologies moisies (TLS, QLC) alors ils se sont dit on va faire pareil sur nos DD mais pour rattraper le retard, on va pas leur dire…Comment vous faites pour savoir que votre disque a tel ou tel technologie ? Y’a des commandes Linux pour ça ?


tristement non, faut se baser sur les remontées utilisateur, trouver des infos au fin fond d’un forum, etc :s

Le 29/04/2020 à 09h 47


(quote:46511:alex.d.)
Je ne suis pas sûr de comprendre : si le SMR est si pénalisant que ça pour les performances en accès aléatoire, on peut retrouver l’info par nous-mêmes avec un simple benchmark, non ?


bah on doit pouvoir créer un script qui va faire des accès selon un certain profil, mais tous les disques smr ne s’effondreront peut-être pas avec le même profil, j’ai lu que la partie “normale” (qui sert de cache) peut varier en gros de 10 à 100go, faut donc un script qui va saturer le disque et la partie “normale” jusqu’a 100 go



et peut-être que certains systèmes de fichiers peuvent atténuer le pb, par exemple, si j’ai bien compris, le btrfs ne remplace pas les données quand il y a une modification, il écrit la nouvelle version dans un emplacement libre puis “libère” l’espace occupé précédemment (ce qui le rend efficace pour les snapshots, c’est natif, ou pas loin), du coup avec un truc comme ça je sais pas si on se retrouve à faire beaucoup de réécriture qui font s’activer toute la gestion spécifique au smr …

Le 29/04/2020 à 08h 44


white_tentacle a dit:


J’ai l’impression qu’il y a beaucoup de fantasmes sur l’impact réel du SMR. J’ai cherché rapidement, j’ai rien pu trouver de chiffré (à part dans les « worst case use »). Cet article donne quand même pas mal de détails : https://www.storagereview.com/review/seagate-archive-hdd-review-8tbLe plus gros impact à mon avis, c’est que le rebuild d’une grappe raid en cas de défaillance est très lent (et ce n’est pas négligeable, plus il est lent, plus la probabilité qu’un autre disque lâche pendant l’intervalle augmente). Après tout dépend effectivement des usages… Pour un nas personnel plutôt utilisé comme archive que comme dossier de travail, ça ne changera pas grand chose. Pour un dossier de travail partagé utilisé intensivement en écriture, c’est sûr, ça ne sera pas pareil…


pour ma part j’ai 2 disques smr (je le savais pas à l’achat), un 8to et un 4to, le 8 me servait de nas (nextcloud) et le 4 pour des tests
je suis à peu près sur que c’est une charge de travail trop importante, qui aurait provoqué une réécriture d’un gros bloc smr, qui aurait lui-même entraîné un timeout, qui a finalement poussé linux a déconnecter le disque de 4to sur lequel je faisais des tests qui impliquaient des écritures en permanence (pas forcément de grosses écritures, mais très souvent, donc j’imagine pas de temps “idle” suffisant pour que le disque se réorganise de lui-même)



le 4to s’est déconnecté 2 ou 3 fois, du coup j’ai décidé de migrer ces tests sur le 8to => le 8to s’est retrouvé déconnecté lui aussi en 24h, alors que j’avais eu un uptime de 60 ou 80jours sans pb



je suis en train de tout migrer vers des disques non-SMR, je verrai bien si mes soupçons se confirment ou pas (c’est peut-être le pi qui supporte pas le niveau d’I/O des test et j’aurai le même pb, mais remplir le nas (2.6to utilisés) d’une traite (ou presque) ou les rsync pour migrer vers le disque non-SMR n’ont pas provoqué de déconnexion)

Le 29/04/2020 à 07h 27


white_tentacle a dit:


Si je comprends bien, ça concerne les principalement (uniquement ?) des disques à 5400 rpm ? Du coup, c’est complètement cohérent, si t’achètes un disque à 5400 rpm, c’est pas pour de la perf.


mouih, je suis moyennement d’accord
pour un nas par exemple, entre un disque 5400 qui fournirai du 180 Mo/s, et un 7200 qui monterait à 220Mo/s, le 5400 me suffirait amplement, (surtout si le nas est en gigabit) mais faut toujours pas qu’il soit smr …
rallonger un micro poil les temps d’accès pour gagner en bruit, chaleur et consommation ne veut pas obligatoirement dire vouloir un truc qui supporte pas des accès aléatoires en écriture

Le 28/04/2020 à 16h 01


anagrys a dit:


il fut un temps chez AMD ce problème se réglait d’un trait de crayon :-)


j’ai



enfin, j’ai un bon vieil athlon 2500+ que j’avais pu faire reconnaître en “mobile” il me semble grâce a un coup de crayon, histoire de l’OC un poil :)
c’est pas tout à fait comme rétablir un ccx désactivé / non raccordé, mais c’était fun à faire (je prenais pas trop de risques, il me servait déjà plus depuis un moment, mais comme machine secondaire (voire ternaire, nas de backup ou autre truc du genre) …)

Le 24/04/2020 à 16h 09

hum,

&nbsp;

parc dans le parc je comprenais dans le sens ou c’est un “vrai” parc (d’où le “inception”)



si tu penses à matrix, je suppose que c’est la prolongation de la situation de Maeve et celui qui a une canne (dont j’ai oublié le nom), c’est ça ?



possible, mais j’adhère toujours pas :)

Le 24/04/2020 à 15h 30

hum, c’est pas inception non plus, je comprend la théorie, mais j’adhère pas du tout :)

Le 24/04/2020 à 10h 12

la réalisation est toujours nickel

la s1 on était dans le parc “western”

la s2 on passais entre le japon féodal et tout le foin autour de la boite qui possède le parc (delos sauf erreur)

la s3 on sort du parc et on voit la société (“vie en société” pas “entreprise”) dans lequel le parc a été créé et d’autres choses à coté.



je trouve cette s3 très intéressante, plein de sujets “philosophiques” sont abordés (ou sur la vie en société, la technologie du monde moderne …), sans forcément fournir une réponse (même si certaines sont très orientées) et j’aime beaucoup



en y repensant leur coup de pub en invitant des journalistes pour une soirée était vraiment bien pensée et totalement en accord avec ce qu’on voit dans cette saison.

Le 24/04/2020 à 13h 56

j’avais joué un peu avec y’a … ouch genre 7 ans minimum :( quand j’avais converti un ancien pc en pseudo serveur/nas, j’avais réussi a avoir quelques trucs sympa il me semble, niveau de charge de l’onduleur, taux de remplissage des disques, et je sais plus quelles autres bricoles, mais c’était pas forcément “clean” (je crois que j’avais des vieux appels à des scripts bash pas optimums :s)

t’as une conf’ particulière ?



ou alors c’était juste pour la vanne et tu t’en sert même pas ? XD

Le 24/04/2020 à 11h 48


Qruby a dit:


Pareil, quand j’ai vu que le 10TB externe white était moins chers que le 8TB interne, avant même d’acheter le boitier externe qui va avec, j’ai opté pour celui-là. Parfait pour de la sauvegarde off-site avec un pi.


je suis en train de tout centraliser sur un pi (nextcloudpi), j’ai un 8To SMR, du coup hier j’ai commandé un ironwolf 8To et un boîtier pour le remplacer, mais il me manque un backup dans l’histoire.
ton système m’intéresse, t’as monté quoi et comment pour ton système off-site ?
et c’est quoi ton 10To white exactement ? un wd passport ou element ? t’as gardé le boîtier d’origine ou tu l’as ouvert et collé le dd dans un autre pour le brancher sur le pi ?

Le 24/04/2020 à 07h 15

cool, une clarification, ça tombe rudement bien, même si on n’aurait jamais du avoir besoin de ce genre de chose (ça aurait du être indiqué dès le début)

Le 24/04/2020 à 09h 26

je tourne sous focal depuis un peu plus d’un mois pour le boulot, c’était la seule version qui prenait en charge correctement le matos (un poil trop récent visiblement le portable sous ryzen 3700 + rx550m)

&nbsp;

à part quelques plantages où visiblement la partie réseau partait en cacahuète (plus de net, FF et chrome qui voulaient plus rien savoir, un load average qui explose (j’ai vu du 20 plusieurs fois, et même du 40 …) alors que le cpu est à mois de 10%)

mais au reboot pas de souci, pas de corruption de donnée ou quoi.

Le 24/04/2020 à 09h 17

j’ai pas voulu aborder le sujet des atom (il me semble que c’est eux surtout qui sont restés très longtemps en 32bits) mais j’y ai pensé très fortement en tapant ma première réponse <img data-src=" />



mais même 2012, c’est plus tout jeune comme machine (même si ça marche encore hein, je tourne bien avec un pc “gamer” donc le proc a 10 ans (phenom 2 955) …)

Le 24/04/2020 à 08h 27

c’est surtout que ceux qui ont des processeurs encore uniquement 32bit ne pourront pas passer à la 20.04

ok ca sera des vieilles machines selon toute vraisemblance, mais faut y penser

Le 24/04/2020 à 07h 18


Xandr0s a dit:


Merci pour ta réponse et ton retour d’expérience. Bon, j’avoue que je n’avais pas trop fait attention, et j’essayerai d’être vigilant à l’avenir (merci à Next-Inpact et à toi :-) ).Acquérant un “ST4000NM000A”, celui-ci est encore en CMR, dû à sa “faible capacité” (je suppose, comparé aux plus grosses capacités). Perso, je fais le choix des “Exos” (ex. Constellation) pour : penser qu’ils vont mieux durer dans le temps que d’autres modèles (c’est ma croyance :)), et par le coût presque équivalent qu’aux autres modèles (« IronWolf Pro ») chez mon fournisseur (si la différence était plus importante, j’aurais certainement pris un « IronWolf Pro ».Par contre, je ne comprends pas trop pourquoi cette telle différence, sachant qu’à la base, les « Exos » sont destinés aux serveurs et baies de stockages, et que le NAS est aussi un système de stockage :keskidit:.


j’ai cru comprendre que les exo étaient SMR justement :s

Le 23/04/2020 à 18h 41

ça dépend de la charge de travail, je me suis retrouvé à faire beaucoup d’accès sur un disque SMR, notamment des modifications (à priori, j’ai pas le détail exact entre nouveau fichier et modification).
je suis presque sûr que le disque à été inaccessible (pour faire sa mécanique interne de réorganisation des données) un peu trop longtemps et que c’est à cause d’un timeout qu’il s’est retrouvé déconnecté et donc inaccessible jusqu’à un reboot total de la machine sur lequel il était branché (un raspberry pi)



pour être précis c’est un pi sous “nextcloudpi” avec un 8To (malheureusement SMR d’après les commentaires amazon qui ont ouvert le boitier, je savais pas avant l’achat) qui me sert de nas, j’y ai jeté tout mon bazars (environ 3To) d’une traite et ça n’a pas posé de problème, j’avais un uptime de 60 ou 80, parfait
j’ai rajouté pour des essais un autre disque, smr lui aussi, de 4To sur lequel j’ai fait des essais, ça a tourné correctement pendant 3 semaines, puis pouf, disque démonté par le système, débrancher rebrancher l’usb ne changeait rien, j’ai donc rebooté le pi, le lendemain, rebelotte, du coup j’ai migré ce qui était sur ce disque (environ 2To) sur le disque principal pour continuer les essais, 24h plus tard exactement pareil disque démonté aussi
actuellement je ne fais plus d’essais, nextcloud tourne tout seul sur le 8To et le disque est toujours visible.



TL;DR :
si c’est un nas qui vis beaucoup, synchronise pas mal de données qui sont modifiées quotidiennement, un disque SMR peut, au mieux, ralentir voire faire s’effondre les perfs, au pire, je suppose, se faire éjecter du raid et donc ne plus permettre la sécurité des données que le nas est censé fournir
par contre si c’est un nas qui sert juste d’archivage, avec des dépôts de fichiers, puis uniquement des lecture, là ça devrait marcher et poser moins de problème

Le 22/04/2020 à 17h 19


the_Grim_Reaper a dit:


Le cas est le même pour les disques Samsung et Matrox achetés par Seagate.


matrox c’était les cartes graphiques, c’était maxtor les disques :p