Connexion
Abonnez-vous

Composition, technologies et fonctionnalités : on vous dit tout du disque dur moderne

SED, 4Kn et CMR : trio gagnant ?

Composition, technologies et fonctionnalités : on vous dit tout du disque dur moderne

Le 05 novembre 2020 à 14h00

Les composants d'un PC, c'est compliqué. Et malgré les apparences, ce bon vieux disque dur (HDD pour les intimes) est l'un des plus complexes à choisir qu'il soit. Car sous son aspect monolithique se cache de nombreuses technologies lui permettant d'offrir performances et densité.

Le principe de fonctionnement d’un disque dur est assez simple, basique même, et reste le même depuis sa première apparition en 1956. C’est à cette époque que le premier modèle associé à un ordinateur fut créé, puis commercialisé l’année suivante par IBM. Nous avions d'ailleurs consacré un article à ce sujet dans notre magazine #1.

Un disque dur, c’est bien plus qu’un code couleur

En plus de 60 ans, ils ont largement évolué avec une capacité décuplée. Notamment grâce à de multiples technologies et fonctionnalités. Pourtant, en 2020, choisir un disque dur cela se résume trop souvent à regarder une capacité, un prix, parfois une vitesse de rotation ou la gamme représentée par une couleur.

Les fabricants proposent en effet des modèles optimisés pour le stockage en NAS, dans un PC de bureau, un serveur, la vidéosurveillance, etc. Parfois c'est une segmentation marketing assez arbitraire, dans d'autres cas on a droit à certaines optimisations pour le RAID dans le firmware, matériellement, la gestion de certaines commandes... mais c'est le plus souvent assez peu détaillé. Le monde du HDD est loin d'être celui de la transparence.

Et cela réserve quelques (mauvaises) surprise lorsque l'on ne fait pas attention à ce que l'on achète. Des affaires récentes (ici ou ) nous l'ont durement rappelé. Car en réalité, choisir un HDD c'est choisir tout un ensemble de technologies, de paramètres qui peuvent avoir des incidences importantes sur les performances et la fiabilité.

Pour vous permettre de bien comprendre de quoi il retourne et donc de choisir en connaissance de cause, voici notre guide de survie. Vous serez ainsi armé pour analyser et comparer les fiches techniques.

Plateaux, pistes, secteurs et tête de lecture/écriture

Un disque dur est une mémoire de masse utilisant un ou plusieurs supports magnétiques, que l’on appelle communément des plateaux. Chacun dispose de pistes circulaires concentriques (des ronds ayant le même centre), elles-mêmes découpées par des rayons (partant du centre) pour former des secteurs. 

Chaque secteur comprend un certain nombre de bits – 512 ou 4096, nous y reviendrons – et chaque bit est enregistré à l'aide d'un aimant pouvant prendre deux « orientations » : l'une correspond au 0, l'autre au 1. On obtient ainsi bien un système binaire.

On y retrouve têtes de lecture/écriture qui se déplacent pour atteindre les différentes pistes circulaires; elles sont au bout des « bras » que l'on voit en général sur les photos (voir ci-dessous). Lors de grosses sessions de lectures et/ou d’écritures on entend parfois le disque dur « gratter », un bruit venant du déplacement rapide des têtes.

Disque dur

Crédits : BrandonSeidel/iStock

Les plateaux tournent à plusieurs milliers de tours par minute, généralement entre 5 400 et 7 200 tpm mais cela peut parfois aller au-delà sur des modèles spécifiques et/ou pour serveur. Tous les secteurs d’une piste défilent ainsi sous les têtes. Il suffit alors de lire ou écrire la donnée (à l’aide d’un champ magnétique) au bon moment.

Parfois, les HDD sont remplis d'hélium. Cela nécessite des protections particulières, mais améliore l'efficacité.

CMR, LMR, PMR, SMR : ça change quoi ? 

Maintenant que les bases sont posées, passons aux différentes technologies, en commençant par celles concernant la manière d'accéder aux données. Il existe en effet plusieurs manières de stocker des bits sur un plateau : on parle de technologies xMR (Magnetic Recording). À commencer par le LMR (Longitudinal Magnetic Recording).

C'était la méthode originelle. Dans ce cas, la magnétisation de chaque bit – les 0 ou 1 – était alignée horizontalement, c’est-à-dire parallèlement au plateau qui tourne à l'intérieur du disque dur. Cela fonctionne bien, mais ce n'est pas franchement optimal pour la densité, la quantité de données que l'on stocke par plateau.

C’est alors que le PMR (Perpendicular Magnetic Recording) est arrivé. La magnétisation de chaque bit est cette fois-ci alignée verticalement par rapport au plateau, permettant ainsi de stocker plus de données sur une même surface. De quoi initier une course à densité qui ne faisait alors que commencer…

Notez que PMR et LMR sont parfois regroupés sous une même appellation CMR (Conventional Magnetic Recording).

LMRLMR

Depuis quelques années, la technologie SMR (Shingled Magnetic Recording) fait parler d’elle. Elle existe depuis longtemps dans le monde des serveurs/datacenters, mais elle a récemment été « découverte » par le grand public.

L’idée est de superposer en partie les pistes afin d'augmenter la densité des plateaux, ce qui n’est pas sans conséquence sur les performances. Car si cela ne change rien lors de la lecture des données, en écriture cette technique peut engendrer une chute de performances parfois importante.

En effet, il faut réinscrire les données des pistes se chevauchant, entrainant ainsi un phénomène d'amplification en écriture. C'est ce qui a causé le fameux « SMR Gate » quand l'on s'est aperçu que certains constructeurs utilisaient cette technologie sans le dire explicitement dans leurs fiches techniques (voir ici, ou encore ).

Synology à une manière « polie » de présenter les choses : « En raison des caractéristiques des performances des disques SMR, ce modèle est uniquement adapté aux environnements de charges de travail légères. Une dégradation des performances peut survenir dans le cadre d'opérations d'écriture continues ».

SMR SSD

Vous en voulez encore ? Voici DMSMR, HMSMR et HASMR

Le SMR nécessite une approche différente afin de prendre en charge sa particularité. Il existe trois solutions : 

  • DMSMR : Device Managed SMR
  • HMSMR : Host Managed SMR
  • HASMR : Host Aware SMR

Dans le premier cas, c‘est le disque dur qui se charge tout seul de gérer son écriture, il est « vu » comme un HDD classique par l’ordinateur. Pas de problème de compatibilité donc.

Les disques durs HMSMR nécessitent un hôte spécifique, prenant en charge le SMR. Ils ne sont donc pas compatibles avec les NAS ni avec les cartes mères grand public, mais pensés pour les serveurs.  Enfin, la troisième famille, HASMR, correspond à des disques durs SMR pouvant être gérés tout seuls ou par l’hôte suivant les cas.

Ils s’adaptent et sont donc perçus comme DMSMR ou HMSMR suivant les cas.

Le TDMR pour améliorer les performances en lecture 

Alors que la densité augmente, les opérations de lecture deviennent de plus en plus difficiles. En effet, la largeur des pistes diminue, ce qui a tendance à créer des interférences, compliquant de fait ces opérations.

C’est pour contourner cette problématique que le TDMR (Two-Dimensional Magnetic Recording) a été imaginé, avec deux « lecteurs » par tête au lieu d’un seul. Seagate était le premier à se lancer, suivi par Western Digital et Toshiba. Les disques durs de grosses capacités sont généralement concernés. 

TDMR
Crédits : Roger Wood, CC BY-SA 4.0

Il ne fait pas confondre le TDMR avec le Dual Actuator (Mach.2) de Seagate. Dans ce cas, le disque dur dispose de deux bras mécaniques indépendants, chacun avec ses propres têtes de lecture/écriture. Il est ainsi vu comme deux disques durs indépendants par le système. Cela permet de doubler les débits et les IOPS.

BPMR, HAMR et MAMR : la relève se prépare

Continuons avec le MAMR (Microwave-Assisted Magnetic Recording), développé par Western Digital. Il s’agit d’« encapsuler un oscillateur à côté de la tête d'écriture », qui fonctionne un peu comme un amplificateur pour modifier la polarité d’un grain magnétique sans toucher aux autres, avec une précision chirurgicale.

Le fabricant nous avait déjà confirmé que ces disques durs seraient utilisables dans n’importe quelle machine, même si « l'objectif premier est d'adresser le besoin des datacenters » avec de grosses capacités. 

Seagate prépare son alternative : le HAMR (Heat-assisted magnetic recording). La finalité est la même, mais pas la méthode. Le constructeur utilise la chaleur (via un faisceau laser) afin d'atteindre localement une température de plusieurs centaines de °C et ainsi polariser de manière stable un grain magnétique sur la surface du plateau. 

Nous avons déjà détaillé les principes de fonctionnement et les attentes des fabricants dans une précédente actualité. Les premiers disques durs MAMR de Western Digital sont attendus pour la fin de l’année, avec probablement 20 To pour commencer.

Par la suite, ce sera au tour du BPMR (Bit-Patterned Magnetic Recording) de débarquer. Cette fois-ci, le changement se fait aussi au niveau des plateaux grâce à un nouveau procédé lithographique.

Jusqu’à présent, chaque bit est enregistré sur un ensemble de grains. Avec les supports « bit patterned », chaque bit est isolé des autres. Une publication scientifique par les équipes de Western Digital est disponible ici. Le BPMR sera ensuite mélangé avec le HAMR et le TDMR pour donner naissance au HDMR (Heated-Dot Magnetic Recording).

Ce n’est pas pour tout de suite puisque cette technologie ne devrait pas arriver avant 2023 selon Seagate.

BPMR

Principe de fonctionnement d’un plateau BPMR. Crédits : arXiv

Taille des blocs : 4K vs 512 

Indépendamment des différentes technologies mises en place par les fabricants sur les plateaux, il existe d’autres indicateurs importants. Le premier concerne la taille des secteurs. Elle était de 512 octets au début, mais on est passé à 4096 (4K ou Advanced Format) depuis une dizaine d’années. 

En effet, « à mesure que les capacités de disque dur ont augmenté, la taille des secteurs s'est progressivement révélée un frein vis-à-vis de l'amélioration des capacités et de l'efficacité de la correction d'erreurs », explique Seagate. L’augmentation de la densité dans un format implique que les secteurs occupent une place de plus en plus réduite : « un problème dans le contexte de la correction d'erreurs et des risques de défauts de support ».

Avant d’expliquer les différences entre le 512 et le 4K, quelques précisions sur la manière dont se décompose un secteur sur un disque dur. On y trouve : 

  • Une section d'intervalle (Gap) pour séparer les secteurs entre eux
  • Une section de synchronisation (Sync) pour positionner les têtes
  • Une section de marquage d'adresse (Address Mark) pour identifier l'emplacement du secteur
  • Une section de données (Data) pour stocker les bits
  • Une section de code correcteur d'erreur (ECC ou Error Correction Code)

Dans le cas des secteurs de 512 octets, il faut ajouter 50 octets pour l’ECC et 15 octets pour les trois sections Gap, Sync et Mark. On arrive ainsi à 577 octets pour 512 octets de données utilisables, soit un « taux d’efficacité » de 88 % environ. Le passage au 4K permet d’améliorer ce score de 9 points.

En effet, avec un secteur de 4 096 octets, on stocke ainsi huit fois plus de données, mais toujours avec 15 octets seulement pour les sections Gap, Sync et Mark. L’ECC est par contre doublée pour arriver à 100 octets. Au total, un secteur occupe donc 4 211 octets (pour 4 096 octets de données utilisables), soit un taux d’efficacité de 97 %.

Secteurs HDD 4k

Crédits : Seagate

Pourquoi parle-t-on de disques durs 4Kn ou 512e ?

Il est possible de mettre en place une émulation pour qu’un disque dur avec des secteurs 4K soit reconnu comme un modèle avec des secteurs de 512 octets, pour des questions de rétrocompatibilité par exemple.

Dans cette situation, aucun changement de performances n’est généralement à déplorer en lecture, mais il peut y avoir un phénomène d’amplification en écriture. Tout est géré en interne et de manière transparente par le disque dur, via son cache. Sous Windows, la prise en charge native des secteurs 4K existe depuis le Service Pack 1 de Windows Vista. Sous Linux, il faut disposer du noyau en version 2.6.31 minimum.

Dans la pratique les disques durs sont passés aux secteurs 4K depuis longtemps et on trouve principalement trois types de produits dans le commerce : les 512n, 512e et 4Kn. Le « n » des premiers signifie natif : le disque dur à donc des secteurs physiques de 512 octets. Le « e » des seconds est pour émulé, le HDD à des secteurs physiques 4K, mais vu comme 512 par le système. Comme pour le DMSMR, c’est totalement transparent pour la machine.

Le « n » des 4Kn est pour natif : le disque dur utilise des secteurs de 4 096 octets et il est vu comme tel par le système qui doit être capable de le gérer. Les 512e restent encore majoritaires actuellement pour des raisons de rétrocompatibilité... mais les 4Kn domineront un jour le monde.

Cache : attentions aux fausses croyances

Dans les caractéristiques techniques des disques durs, on retrouve souvent une information sur la quantité de cache. On pourrait être tenté de se dire que plus il y en a et mieux c’est… mais ce n’est pas si simple.

Dans les disques durs de grosses capacités, elle peut atteindre 512 Mo. Il peut servir à plusieurs choses. La première est d’y placer des données afin d’améliorer les performances en lecture (par exemple pour celles souvent accédées). En écriture, le cache permet de faire un « tampon » pour enregistrer rapidement des données qui sont ensuite écriture sur le disque. Dans le cas des HDD pour les NAS par exemple, de petits condensateurs peuvent être présents afin de sauvegarder les données du cache en cas de coupure de courant.

Comme déjà indiqué, le cache peut aussi être utilisé sur des disques 512e afin de réaliser les opérations d’écriture nécessaire. Il peut aussi être utilisé par les HDD SMR afin qu’ils puissent remettre en ordre leurs données avant de les écrire. Western Digital intègre ainsi 256 Mo de cache dans ses disques durs RED de 2 à 6 To en SMR, contre 64 Mo pour ceux en CMR de même capacité. Choisir le modèle avec le plus de cache n’est donc pas forcément synonyme des meilleures performances. Prenez garde !

SAS vs S-ATA : en général, vous n’avez pas le choix

Sur l’interface des disques durs, deux normes sont principalement utilisées : SAS (Serial Attached SCSI) et S-ATA (Serial Advanced Technology Attachment). La première est une évolution du SCSI et se trouve généralement dans les serveurs et autres stations de travail. La seconde est utilisée dans les machines grand public.

Notez que le SAS est rétrocompatible avec le SATA : vous pouvez donc brancher un disque dur SATA sur un contrôleur SAS, mais la réciproque n’est pas vraie. Héritage du SCSI oblige, il est possible de chainer des HDD SAS, ce qui n’est pas possible en S-ATA.  Les différences ne s’arrêtent pas là et sont nombreuses.

Intel propose d’ailleurs un tableau comparatif. L’une des plus visibles est certainement le débit maximum de l’interface : jusqu’à 12 Gb/s en SAS contre 6 Gb/s en S-ATA, soit 750 Mo/s tout de même (600 Mo/s dans la pratique, comme c’est le cas sur les SSD). C’est donc largement suffisant pour une utilisation grand public puisque les HDD sont encore loin d’atteindre cette limite. 

SATA SAS

Crédits : Seagate

SED, FIPS, MTBF…

Il y a bien d’autres éléments à prendre en considération. Citons par exemple les disques durs avec autochiffrement (SED ou Self Encrypting Drive) qui intègrent nativement un module matériel pour les opérations de chiffrement et déchiffrement. Cette tâche n’est ainsi plus dévolue au processeur, permettant ainsi d’améliorer les performances.

Les données sont ainsi chiffrées par défaut sur un disque SED, avec la possibilité d’y ajouter une phrase de passe maison. C’est aussi un avantage lorsqu’il faut empêcher l'accès aux données : supprimer la clé de chiffrement suffit.

Il y a aussi les disques certifiés FIPS : ils proposent « les mêmes fonctionnalités que le disque avec autochiffrement, à ceci près que le module cryptographique est certifié par l’Institut national des normes et de la technologie des États-Unis », explique Seagate.

Sur les fiches techniques des disques durs, vous trouverez bons nombre d’autres informations. Il y a le MTBF (en heures) qui correspond au temps moyen entre deux pannes selon des tests réalisés par le fabricant. Le Taux de charge (en To/an) est la quantité maximale de données en écriture pour laquelle le disque dur est prévu. Ces informations sont à mettre en relation avec la durée de la garantie (généralement de trois à cinq ans).

Les fabricants communiquent aussi le Non-recoverable errors per bits read ou erreurs non récupérables par bits lus. Comme son nom l’indique, cela donne le nombre d’erreurs auquel s’attendre en moyenne. Il est généralement plus bas sur les disques durs pensés pour une utilisation professionnelle… mais ce n’est pas une règle d’or. Chez Western Digital par exemple, il est <1 sur 10¹⁴ bits sur les Red (Plus) contre <10 in 10¹⁴ sur les Red Pro

Pour un disque dur précis, un fabricant peut donc proposer pas moins de huit références pour une même capacité : SAS ou S-ATA, avec des secteurs de 4K natif ou 512 émulés et de l’autochiffrement ou non (voir cet exemple avec le MG08 16 To de Toshiba que nous avons testé). Mais au moins maintenant, vous avez les clés pour bien comprendre les différences et choisir en connaissance de cause.

Commentaires (55)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

très bonne synthèse, même en suivant l’actu, j’avoue être un peu perdu sur le SMR :)

votre avatar

La méthode laser chauffe-t-elle vraiment à plusieurs centaines de degrés ? le minidisk employait cette technique pour effacer de très petites zones et le substrat de la couche magnétique aurait fondu à ces températures infernales. plusieurs dizaines de degrés par ailleurs suffisent pour d’autre supports magnétique (mémoires à bulles 96>t>50°C). Je ne l’ai pas tenté sur mes cassettes déjà mécaniquement elles ne tiendraient pas.
Mais très intéressant article aurait pu/du être dans le magazine.

votre avatar

On ne peut pas tout y mettre :D

votre avatar

Merci pour ce dossier.

votre avatar

La capacité d’un disque dur (pour un nombre de plateaux figés) est-elle liée aux plateaux ou aux têtes, ou bien est-elle figée par le firmware ?



Par exemple, sur les disquettes la limitation était extérieure. La capacité des disquettes dépendait d’une encoche. Pour moi, la limitation était marketing, les constructeurs voulaient nous faire payer au prix fort les disquettes de plus capacité alors qu’il n’y avait aucune différence, il suffisait de réaliser l’encoche (ou le trous) nous-même pour doubler la capacité.



Autre exemple : chez certains constructeurs les modems avaient des capacités différentes (14.4k ou 28.8k) mais ils étaient “identiques” au niveau matériel à une soudure/jumper près. Par contre, le prix n’était absolument pas identique.



Savez-vous ce qu’il en est des disques durs aujourd’hui ?

votre avatar

La traduction (automatique ?) du tableau comparatif chez Intel est ignoble : préférez la version anglaise.

votre avatar

Cela peut dépendre selon les modèles, mais entre un HDD de 4 To et de 12 To, je te rassure, la composition interne n’a juste rien à voir :D

votre avatar

Get Perpendicular !



Ce tube a bercé ma jeunesse ;)

votre avatar

C’est mieux avec le clip :D

votre avatar

j’ai encore deux gros aimants de disque dur, bien costaud ^^

votre avatar

slemaire a dit:


Par exemple, sur les disquettes la limitation était extérieure. La capacité des disquettes dépendait d’une encoche. Pour moi, la limitation était marketing, les constructeurs voulaient nous faire payer au prix fort les disquettes de plus capacité alors qu’il n’y avait aucune différence, il suffisait de réaliser l’encoche (ou le trous) nous-même pour doubler la capacité.


Ça n’est pas tout-à-fait exact. L’encoche servait à reconnaître le type de support. Faire une encoche dans une disquette 720ko fait croire à ton lecteur qu’il s’agit d’une disquette 1.44Mo, mais ça ne transformait pas pour autant la surface magnétique ! Une disquette capable d’enregistrer en double densité ou en haute densité n’ont pas la même technique de fabrication.
Alors certes, la plupart du temps ça semblait marcher. Mais si tu essayais de relire les disquette 6 mois plus tard, là tu constatais que tu avais pas mal de secteurs perdus.
En revanche, l’inverse marche bien : enregistrer en DD sur une disquette HD, en mettant un petit scotch sur l’encoche. C’était pratique dans les années 90, quand on ne trouvait pratiquement plus de disquettes 720 à la vente.

votre avatar

(quote:52532:alex.d.)
Ça n’est pas tout-à-fait exact. L’encoche servait à reconnaître le type de support. Faire une encoche dans une disquette 720ko fait croire à ton lecteur qu’il s’agit d’une disquette 1.44Mo, mais ça ne transformait pas pour autant la surface magnétique ! Une disquette capable d’enregistrer en double densité ou en haute densité n’ont pas la même technique de fabrication. Alors certes, la plupart du temps ça semblait marcher. Mais si tu essayais de relire les disquette 6 mois plus tard, là tu constatais que tu avais pas mal de secteurs perdus. En revanche, l’inverse marche bien : enregistrer en DD sur une disquette HD, en mettant un petit scotch sur l’encoche. C’était pratique dans les années 90, quand on ne trouvait pratiquement plus de disquettes 720 à la vente.


il y avait de rares 2.88 aussi il me semble, j’ai un lecteur zip qui traine dans un coin, je sais pas trop quoi en faire ^^

votre avatar

David_L a dit:


Cela peut dépendre selon les modèles, mais entre un HDD de 4 To et de 12 To, je te rassure, la composition interne n’a juste rien à voir :D


Pour sûr, il y a une différence entre un disque 4To air et les 12ToOn qui eux sont remplis d’hélium. Mais ils n’ont pas le même nombre de plateaux, 4To en CMR c’est 3 plateaux, 12To c’est 6 ou 7.



Donc j’adapte ma question, quand pour une même techno cmr dans le même gaz, la densité d’un plateau augmente, les têtes ou l’électronique change-t-elle ?

votre avatar

(quote:52532:alex.d.)
Ça n’est pas tout-à-fait exact. L’encoche servait à reconnaître le type de support. Faire une encoche dans une disquette 720ko fait croire à ton lecteur qu’il s’agit d’une disquette 1.44Mo, mais ça ne transformait pas pour autant la surface magnétique ! Une disquette capable d’enregistrer en double densité ou en haute densité n’ont pas la même technique de fabrication. Alors certes, la plupart du temps ça semblait marcher. Mais si tu essayais de relire les disquette 6 mois plus tard, là tu constatais que tu avais pas mal de secteurs perdus. En revanche, l’inverse marche bien : enregistrer en DD sur une disquette HD, en mettant un petit scotch sur l’encoche. C’était pratique dans les années 90, quand on ne trouvait pratiquement plus de disquettes 720 à la vente.


Pour moi cela fonctionnait et tenait dans le temps sur des marques reconnues, donc je pense qu’il n’y avait pas de différence de fabrication.



C’était encore plus visible avec les disquettes 5 1/4180KO simple face et les 360 KO double face. Il suffisait de faire un trou pour que la disquette simple face devienne double face. Cela fonctionnait avec toutes les marques. Dans ce cas le marketing nous enlevait carement une face fonctionnelle.

votre avatar

On notera que pour le moment, les technologies HAMR et MAMR sont moins rentables (ou cost efficient) que le PMR.
Seagate a annoncé il y a 2 semaines que le HAMR ne sera plus intéressant qu’une fois les 24 TB par HDD atteint, ce qu’il prévoit sur Q1Y2022.

votre avatar

Chaîner les disques en Sas c’est un peu comme auparavant en Ide, avoir plusieurs disques sur le même câble ?

votre avatar

MikaMika a dit:


Chaîner les disques en Sas c’est un peu comme auparavant en Ide, avoir plusieurs disques sur le même câble ?


toutafay, et pas besoin de terminateur comme pour les disques scsi classiques

votre avatar

slemaire a dit:


Pour moi cela fonctionnait et tenait dans le temps sur des marques reconnues, donc je pense qu’il n’y avait pas de différence de fabrication.


Quand les disquettes 1.44Mo ont commencé à se répandre, les fabricants n’en faisaient plus qu’une seule sorte, mais celles étiquetées 720ko n’étaient pas moins chères donc la manip avait peu d’intérêt. Mais avant ça, il y avait une réelle différence technique entre les deux.
Moi aussi j’ai essayé d’être plus malin et d’enregistrer 1.44Mo sur une disquette 720ko, mais ça n’était pas fiable.

votre avatar

Ça depend du temps et de la précision avec laquelle tu chauffes… balancer un coup de laser ne pose aucun problème si ça ne dure que qq nanosecondes sur qq nanomètres

votre avatar

balancer un coup de laser ne pose aucun problème si ça ne dure que qq nanosecondes sur qq nanomètres


Hélas si, même cela, c’est un gros problème.
Les premières expérimentations en 2014 pour le HAMR nous donne des lasers qui grille au bout de 1 ns, ce qui correspondait à une chauffe…
On a évidemment beaucoup progressé pour avoir des lasers viables mais ceux qu’on met dans le premier HDD HAMR qui va être release le mois prochain sont très couteux, trop par rapport à la capacité qu’il font gagner (data density).
Nous n’avons donc toujours pas des lasers qui tiennent le coup et qui sont économiquement intéressant, cela devrait être réglé en Q1Y2022.

votre avatar

Duleunien a dit:


Hélas si, même cela, c’est un gros problème. Les premières expérimentations en 2014 pour le HAMR nous donne des lasers qui grille au bout de 1 ns, ce qui correspondait à une chauffe… On a évidemment beaucoup progressé pour avoir des lasers viables mais ceux qu’on met dans le premier HDD HAMR qui va être release le mois prochain sont très couteux, trop par rapport à la capacité qu’il font gagner (data density). Nous n’avons donc toujours pas des lasers qui tiennent le coup et qui sont économiquement intéressant, cela devrait être réglé en Q1Y2022.


On ne parle pas tout à fait de la même chose… @la_hyene s’inquiète des effets sur le disque, toi tu parles de la fiabilité du laser lui-même. L’un n’empêche pas l’autre et je ne suis pas étonné par le fait que miniaturiser à ce point un tel appareil soit très compliqué.

votre avatar

Il ne faut pas oublier que le SED a causé beaucoup de problèmes, car le moteur de chiffrement des disques durs et des SSD est parfois très mauvais et absolument pas sécurisé.



Sinon pour le “Non-recoverable errors per bits read” je suis surpris qu’il ne soit pas nul, qu’est-ce qui peut bien causer ça ? Ça veut dire que quand on lit plusieurs To de données on peut à un moment avoir une corruption quelque part dans un fichier ? C’est quand même sacrément problématique :/

votre avatar

Oui c’est ça. C’est un risque inhérent, rien n’est parfait. Mais si effectivement ça a été pendant longtemps quelque chose d’assez lointain pour nous (10¹⁴ ça représente à la louche 100 Pétabits, soit ~12Po) c’est quelque chose qui se rapproche assez vite avec l’augmentation des capacités des disques et l’évolution croissante du marché des NAS & cie. Le RAID5 n’est plus considéré comme sécurisé notamment et la reconstruction d’un RAID5 après un disque HS devient de plus en plus risquée car ça entraine une quantité folle de lecture/écriture.



Je suis justement curieux de savoir ce que compte faire les constructeurs à ce sujet car ça devient assez primordial à mon avis.

votre avatar

Sauf erreur de ma part, 10^14 bits, ça représente 12.5 To



10^3 b = 1 Kib
10^6 b = 1 Mib
10^9 b = 1 Gib
10^12 b = 1 Tib
10^14 b = 100 Tib



Soit 12.5 T(i)o. Personnellement en lecture je dépasse certainement cette quantité-là par an, donc c’est embêtant :/

votre avatar

my bad, j’ai zappé les Kilo dans mon calcul (pas faute d’avoir vérifié plusieurs fois pourtant).

votre avatar

Et au sujet de ce passage “de petits condensateurs peuvent être présents afin de sauvegarder les données du cache en cas de coupure de courant.”
Comment on sait qu’il y en a ?
C’est uniquement sur les disques pro ? (les vrais, pas ceux qui ont “pro” dans leur nom ;) )
Ou c’est inclus d’office dans beaucoup de modèles ?
Il y a un nom pour le principe ou la techno, qui permet de le retrouver facilement ?



J’en avait entendu parler il y a longtemps (plus de 10 ans, peut-être 15). Mais c’était déjà pas bien clair à l’époque. Et avec l’augmentation des caches, je me posais des questions à ce sujet.

votre avatar

la_hyene a dit:


La méthode laser chauffe-t-elle vraiment à plusieurs centaines de degrés ?


Il s’agit de chauffer des zones micrométriques, donc oui c’est possible avec une énergie relativement faible ; cela dit, quand on pense à la vitesse à laquelle défile le substrat magnétique sous le laser (à 7200 tr/min en extrémité de disque de diamètre 12 cm, ça fait 45 m/s), ça demande une belle puissance.




le minidisk employait cette technique pour effacer de très petites zones et le substrat de la couche magnétique aurait fondu à ces températures infernales.


Ben non, il était conçu pour. D’ailleurs, le point de Curie (température) est différent selon les matériaux magnétiques.




slemaire a dit:


Pour sûr, il y a une différence entre un disque 4To air et les 12ToOn qui eux sont remplis d’hélium. Mais ils n’ont pas le même nombre de plateaux, 4To en CMR c’est 3 plateaux, 12To c’est 6 ou 7.



Donc j’adapte ma question, quand pour une même techno cmr dans le même gaz, la densité d’un plateau augmente, les têtes ou l’électronique change-t-elle ?


Au sein d’une même gamme on a plus ou moins de têtes et de plateaux (une tête par plateau me semble).




MikaMika a dit:


Chaîner les disques en Sas c’est un peu comme auparavant en Ide, avoir plusieurs disques sur le même câble ?


Oui à la nuance qu’en IDE on ne pouvait en mettre que 2, et qu’il fallait changer un “jumper” sur le disque vu comme esclave (le 2e).




gallean a dit:


toutafay, et pas besoin de terminateur comme pour les disques scsi classiques


C’était parfois la plaie ces terminateurs, en particulier avec des disques externes mal mis à la masse (j’ai eu un Syquest externe).




KP2 a dit:


Ça depend du temps et de la précision avec laquelle tu chauffes… balancer un coup de laser ne pose aucun problème si ça ne dure que qq nanosecondes sur qq nanomètres


Sauf aux vitesses en question (cf plus haut), je suppose :-) .

votre avatar

plus exactement :




  • 10^3 b = 1 Kb = 125o

  • 10^6 b = 1 Mb = 125Ko ~ 119.2Kio

  • 10^9 b = 1 Gb = 125Mo ~ 116.42Mio

  • 10^12 b = 1 Tb = 125Go ~ 113.69Gio

  • 10^14 b = 100 Tb = 12.5To ~ 11.37Tio



Les “Kilo/K”, “Mega/M”, “Giga/G”, “Tera/T”, c’est les préfixe pour les mesure en Système International qui sont en multiple de 1000 (10³). Les “Kibi/Ki”, “Mebi/Mi”, “Gibi/Gi”, “Tebi/Ti”, c’est des préfixe binaire et sont en multiple de 1024 (2¹⁰).

votre avatar

OlivierJ a dit:


Au sein d’une même gamme on a plus ou moins de têtes et de plateaux (une tête par plateau me semble).


2 têtes par plateau, une par face ;)
(sauf cas de ce que j’appellerai de la segmentation “artificielle”, j’ai déjà démonté un dd, avec 2 plateaux, mais … 3 têtes, donc ça permet de vendre un disque avec 25% de capacité en moins, avec une tête (peut-être le bras entier?) en moins ce qui doit représenter une fraction ridicule du prix du DD)
(on me répondra que les constructeurs automobiles font pareil, avec des moteurs identiques que ce soit les versions 110, 14 ou 170cv)

votre avatar

SomeDudeOnTheInternet a dit:


Il ne faut pas oublier que le SED a causé beaucoup de problèmes, car le moteur de chiffrement des disques durs et des SSD est parfois très mauvais et absolument pas sécurisé.


Qu’appelles-tu “pas sécurisé” pour un algorithme de chiffrement ? Tu veux dire que c’est un chiffrement jugé pas assez fort ?
Idem pour “très mauvais” ; tout dépend de quel type d’attaquant le chiffrement est censé prémunir (entre un simple voleur, un geek un peu compétent, et un service secret).




Sinon pour le “Non-recoverable errors per bits read” je suis surpris qu’il ne soit pas nul, qu’est-ce qui peut bien causer ça ? Ça veut dire que quand on lit plusieurs To de données on peut à un moment avoir une corruption quelque part dans un fichier ? C’est quand même sacrément problématique :/



Soraphirot a dit:


Oui c’est ça. C’est un risque inhérent, rien n’est parfait. Mais si effectivement ça a été pendant longtemps quelque chose d’assez lointain pour nous [..]
Je suis justement curieux de savoir ce que compte faire les constructeurs à ce sujet car ça devient assez primordial à mon avis.


C’est pour ça que le système de fichiers ZFS inclus un checksum de toutes les données et métadonnées, pour pallier le fait qu’on arrive au niveau de correction d’erreur des disques (même 1 pour 10^15 et il me semble avoir vu 1 pour 10^16 pour certains disques) ; pour un disque seul ça ne permet que de détecter, mais pour des RAIDs ça permet à la simple lecture de détecter un secteur endommagé, et il est réécrit ailleurs.



Je ne sais pas quelle amélioration du taux d’erreur on est censé obtenir avec ZFS, faudrait regarder s’il y a des estimations. En tous cas, une connaissance qui gère de gros volumes en ZFS (50-100 To) m’a dit qu’il avait déjà vu ZFS détecter et corriger des erreurs.




(quote:52574:Chocolat-du-mendiant)
Et au sujet de ce passage “de petits condensateurs peuvent être présents afin de sauvegarder les données du cache en cas de coupure de courant.” Comment on sait qu’il y en a ? C’est uniquement sur les disques pro ? (les vrais, pas ceux qui ont “pro” dans leur nom ;) ) Ou c’est inclus d’office dans beaucoup de modèles ? Il y a un nom pour le principe ou la techno, qui permet de le retrouver facilement ?



J’en avait entendu parler il y a longtemps (plus de 10 ans, peut-être 15). Mais c’était déjà pas bien clair à l’époque. Et avec l’augmentation des caches, je me posais des questions à ce sujet.


Ça existait déjà il y a 20 ou 30 ans sur les cartes contrôleur RAID, pas sous forme de condensateur mais plutôt de petite pile/batterie capable de garder les données en cas de coupure de courant, et les écrire au rallumage. C’était indiqué dans les spécifications dans les catalogues.



Et dans les disques directement, surtout quand il s’agit d’un SSD qui consomme peu et écrit très vite, il suffit d’un condensateur relativement modeste pour avoir le temps de finir d’écrire avant de ne plus avoir d’énergie (pour les disque magnétiques, je ne sais pas si ça se faisait). Là aussi, ça figure dans les spécifications, vu que c’est une fonctionnalité intéressante.



Concernant la taille des caches RAM des disques durs, c’était peut-être utile pour des disques grand public dans des PC sous MS-DOS ou diverses versions de Windows, mais sous un OS type Unix/Linux ça n’a guère d’intérêt (aucune différence de perf visible entre un cache de 32 Mo et 64 Mo par ex) car plus le cache est près du CPU, plus efficace il est. Même quand une machine disposait de seulement 256 Mo de RAM, de toutes façons le noyau cache les données à l’écriture et elles sont écrites (après réordonnancement pour optimiser sur disque magnétique) par buffers entiers vers le disque.



Cela étant dit, un HDD ou SSD a besoin d’un peu de RAM pour sa gestion interne, en particulier le SSD avec ses algorithmes de répartition d’usure ; un HDD a sans doute assez de RAM pour stocker une piste entière (tant qu’à mettre la tête dessus, c’est lu en quelque ms si aucun autre ordre n’arrive), et ça doit faciliter la réécriture et les réordonnancements internes.

votre avatar

fry a dit:


2 têtes par plateau, une par face ;)


Là où j’avais un doute, c’est sur les disques avec plein de plateaux, tu es sûr qu’il y a la place pour une tête de chaque côté ?




(sauf cas de ce que j’appellerai de la segmentation “artificielle”, j’ai déjà démonté un dd, avec 2 plateaux, mais … 3 têtes, donc ça permet de vendre un disque avec 25% de capacité en moins, avec une tête (peut-être le bras entier?) en moins ce qui doit représenter une fraction ridicule du prix du DD)


Probablement le bras entier, et je pense que tu te trompes, car clairement ça doit faire baisser le prix de manière non négligeable, la tête étant une partie mécanique de haute précision, avec des têtes “hi-tech” comportant des matériaux particuliers.




(on me répondra que les constructeurs automobiles font pareil, avec des moteurs identiques que ce soit les versions 110, 14 ou 170cv)


Là c’est une autre histoire, c’est souvent une question de fiscalité. Il y a parfois des petites modifications autour du moteur car entre 110 et 170 certaines contraintes mécaniques ne sont pas les mêmes. En essence ça peut influer sur la consommation aussi (moins sur le diesel).

votre avatar

Juste pour dire que ton pseudo me fait sourire à chaque fois :D
(peut-être déjà dit :transpi: )

votre avatar

Pas la peine de faire trois commentaires pour trois réponses ;)

votre avatar

Rhooo…
Marrant de lire ça car je suis plutôt un habitué des réponses où je cite plusieurs personnes et où je fais des commentaires à rallonge. Déjà rien qu’avec le commentaire #30 non ? :-)
(et en général je n’hésite pas à éditer mes commentaires pour ajouter quelqu’un, quand c’est dans les 5 minutes autorisées)

votre avatar

OlivierJ a dit:


Ça existait déjà il y a 20 ou 30 ans sur les cartes contrôleur RAID, pas sous forme de condensateur mais plutôt de petite pile/batterie capable de garder les données en cas de coupure de courant, et les écrire au rallumage. C’était indiqué dans les spécifications dans les catalogues.


Ça existe toujours :)

votre avatar

OlivierJ a dit:


Et dans les disques directement, surtout quand il s’agit d’un SSD qui consomme peu et écrit très vite, il suffit d’un condensateur relativement modeste pour avoir le temps de finir d’écrire avant de ne plus avoir d’énergie (pour les disque magnétiques, je ne sais pas si ça se faisait). Là aussi, ça figure dans les spécifications, vu que c’est une fonctionnalité intéressante.



Concernant la taille des caches RAM des disques durs, c’était peut-être utile pour des disques grand public dans des PC sous MS-DOS ou diverses versions de Windows, mais sous un OS type Unix/Linux ça n’a guère d’intérêt (aucune différence de perf visible entre un cache de 32 Mo et 64 Mo par ex) car plus le cache est près du CPU, plus efficace il est. Même quand une machine disposait de seulement 256 Mo de RAM, de toutes façons le noyau cache les données à l’écriture et elles sont écrites (après réordonnancement pour optimiser sur disque magnétique) par buffers entiers vers le disque.



Cela étant dit, un HDD ou SSD a besoin d’un peu de RAM pour sa gestion interne, en particulier le SSD avec ses algorithmes de répartition d’usure ; un HDD a sans doute assez de RAM pour stocker une piste entière (tant qu’à mettre la tête dessus, c’est lu en quelque ms si aucun autre ordre n’arrive), et ça doit faciliter la réécriture et les réordonnancements internes.


à mon avis techniquement ça poserait pas trop de pb : les plateaux sont lancés, au pire le cache du disque fait 256Mo, il “suffirait” d’avoir assez de jus pour positionner les têtes à un endroit spécifique du disque réservé pour ça, vider le cache sur le disque, parquer la tête
les (gros) disques actuels dépassent les 200 Mo/s sur les piste extérieurs, en imaginant des condensateurs permettant de déplacer les têtes (2(?) mouvements seulement) et alimenter l’électronique pendant 5s (histoire d’être large) ça doit pouvoir se faire
mais c’est pas forcément rentable / existant




OlivierJ a dit:


Probablement le bras entier, et je pense que tu te trompes, car clairement ça doit faire baisser le prix de manière non négligeable, la tête étant une partie mécanique de haute précision, avec des têtes “hi-tech” comportant des matériaux particuliers.
c’est pas complètement absurde comme raisonnement, mais l’étagement des tarifs des disque fait que j’y crois pas tellement, c’est probablement entre nos deux hypothèses, ni les 0.1€ que j’imaginais vaguement, ni les 25€ que tu suggère (c’est moi qui chiffre et exagère ton “de manière non négligeable”)



Là c’est une autre histoire, c’est souvent une question de fiscalité. Il y a parfois des petites modifications autour du moteur car entre 110 et 170 certaines contraintes mécaniques ne sont pas les mêmes. En essence ça peut influer sur la consommation aussi (moins sur le diesel).


j’ai en tête des diesels VW identiques entre 130 et 180 et qui se reprog sans souci @200+ sur plus de 100 ou 200k km, les limitations sont purement numériques car c’est moins cher qu’avoir des mécaniques différentes (la boite de vitesse, l’embrayage et les freins seront peut-être pas les mêmes cela dit)

votre avatar

Ma question était bien uniquement pour les disques dur
L’utilité du cache, c’est un autre débat ;)
Ce n’est plus, pour moi, un critère depuis longtemps. Mais je suis bien obligé de faire avec celui qu’il y a dans disque que j’achète (il y a peut être des méthodes/paramètres pour ne pas l’utiliser, ou à minima, mais là aussi c’est un autre débat).



Là c’est plutôt l’effet collatéral d’un gros cache, en cas de coupure de courant. Mon sentiment, c’est que ce n’est pas bien grave, les OS, et file system moderne sont en général assez résilient à ce type de problèmes.
J’ai même peut-être déjà posé la question ici. Je crois qu’on en avait déjà discuté.
Mais merci pour ta réponse.



Comme il y avait cette phrase dans l’article. Je me demandais si quelqu’un avait plus d’info sur le sujet, par exemple un nom précis permettant ensuite de m’informer par moi-même (comme “SMR”, même avant le SMR-Gate, une recherche “hard drive SMR” donnait des résultats).
Ou bien un modèle de disque dur précis qui aurai officiellement la capacité. Pour voir comment le constructeur nomme précisément la chose.

votre avatar

fry a dit:


j’ai en tête des diesels VW identiques entre 130 et 180 et qui se reprog sans souci @200+ sur plus de 100 ou 200k km, les limitations sont purement numériques car c’est moins cher qu’avoir des mécaniques différentes (la boite de vitesse, l’embrayage et les freins seront peut-être pas les mêmes cela dit)


Je pensais aussi à ta référence dans le groupe VW, d’ailleurs j’ai un moteur essence de 1,8 l de ce groupe, qui existe en pas mal de puissance depuis l’Audi TT/A3 de fin 90, entre 125 ch de base, 150 ch en turbo, et ensuite 180 puis 225 pour certaines TT). Cela dit, je sais qu’entre le 150 et le 180 le turbo n’est pas tout à fait le même (ou pas réglé pareil), et que pour la 225 certains éléments (bielles, supports ?) ont été renforcés, sans parler parfois des freins ou du châssis un peu modifié. Je sais aussi que mon modèle (le 180 turbo) est reprogrammable, mais je ne l’ai pas fait en partie pour des raisons de fiabilité.



Que ce soit en diesel ou en essence, on peut effectivement reprogrammer des choses électroniquement, après il y a quelques inconvénients, le moteur et certains éléments risquent de souffrir un peu si la puissance est notablement augmentée,et l’usure plus rapide (bon avec un diesel qui fait 300 000 km de nos jours on a de la marge).

votre avatar

Non on me l’avait jamais dit, content que ça te fasse sourire en tout cas :D

votre avatar

OlivierJ a dit:


Il s’agit de chauffer des zones micrométriques, donc oui c’est possible avec une énergie relativement faible ; cela dit, quand on pense à la vitesse à laquelle défile le substrat magnétique sous le laser (à 7200 tr/min en extrémité de disque de diamètre 12 cm, ça fait 45 m/s), ça demande une belle puissance.



Ben non, il était conçu pour. D’ailleurs, le point de Curie (température) est différent selon les matériaux magnétiques.



Au sein d’une même gamme on a plus ou moins de têtes et de plateaux (une tête par plateau me semble).



Oui à la nuance qu’en IDE on ne pouvait en mettre que 2, et qu’il fallait changer un “jumper” sur le disque vu comme esclave (le 2e).



C’était parfois la plaie ces terminateurs, en particulier avec des disques externes mal mis à la masse (j’ai eu un Syquest externe).



Sauf aux vitesses en question (cf plus haut), je suppose :-) .


en externe je n’ai qu’un crw-F1S , pas trop de soucis de ce côté la, il doit me rester une carte fcal dans un coin aussi

votre avatar

Soraphirot a dit:


Oui c’est ça. C’est un risque inhérent, rien n’est parfait. Mais si effectivement ça a été pendant longtemps quelque chose d’assez lointain pour nous (10¹⁴ ça représente à la louche 100 Pétabits, soit ~12Po) c’est quelque chose qui se rapproche assez vite avec l’augmentation des capacités des disques et l’évolution croissante du marché des NAS & cie. Le RAID5 n’est plus considéré comme sécurisé notamment et la reconstruction d’un RAID5 après un disque HS devient de plus en plus risquée car ça entraine une quantité folle de lecture/écriture.


C’est simple : la reconstruction demande de relire l’intégralité des autres disques.
Prenons un RAID5 sur 4+1 disques, tous de T To. Un disque meurt, il faut lire les 4 autres correctement.
Si on a un taux d’erreur de ε, la probabilité que tout se passe bien pour un seul disque est de :
P = (1 - ε)^(T 8 10^12).
Pour que tout se passe bien sur les 4 disques : la probabilité devient P⁴ = (1 - ε)^(T 4 8 * 10^12).



Si vous avez un RAID6 (4 + 2), il faut lire au moins 4 disques sur 5. La probabilité devient alors P’ = P⁵ + 5 * P⁴(1 - P).



En RAID 4 et avec des disques de T=10 To et un taux d’erreur à ε=1x10^-14, vous avez 4% de chances que ça fonctionne… contre 70% que fonctionne avec des disques pour NAS, plus fiables (10^-15).
En RAID 6, on passe respectivement à 13% et 95%.
En pratique, ça sera mieux (le taux d’erreur réel est plus faible que celui annoncé), mais on voit quand même la différence. Si le taux réel est dix fois plus faible, ça donne 97% de chance avec du RAID5 et 99,92% en RAID 6.

votre avatar

Euh oui je sais merci. C’est grosso modo ce que j’explique hein (sans rentrer dans le détail juste). Et par contre les DD “pour NAS” n’ont pas forcément un meilleur taux d’erreur que les autres. les WD Red (plus et Pro compris) sont toujours annoncés à une erreur toutes les 10¹⁴. Oui oui, y compris les disques avec une capacité supérieure à ce chiffre. Faut pas chercher.

votre avatar

flan_ a dit:


C’est simple : la reconstruction demande de relire l’intégralité des autres disques. Prenons un RAID5 sur 4+1 disques, tous de T To. [..]



Soraphirot a dit:


C’est un des points forts de ZFS, c’est qu’il n’a pas besoin de tout relire, mais seulement ce qui a été utilisé ; et comme normalement tu évites de remplir à plus de 80 % (éventuellement 90 % mais c’est limite) en usage sérieux, c’est toujours ça de gagné lors de la reconstruction.



Anecdote, je me suis amusé à voir comment fonctionnait la reconstruction (via la commande “scrub”) zn ZFS quand on retirait un disque, écrivait un nouveau fichier puis remettait le disque, du coup c’est relativement rapide quand le RAID est peu rempli.

votre avatar

Le problème du zfs c’est qu’une fois ton pool créé tu ne peux plus l’agrandir. Pour un volume “système” ça va mais pour stocker de la data ça te bloquera à un moment (ce qui est mon cas).

votre avatar

Je pense que tu te trompes, on peut tout à fait agrandir un pool ZFS, j’ai déjà lu plein d’exemples concrets (et ça serait étonnant qu’on ne puisse pas vu toutes les possibilités de ce FS). Ce filesystem n’a toujours pas d’équivalent il me semble.



Tape juste “agrandir un pool zfs” dans Google et tu verras.

votre avatar

(reply:52622:OlivierJ) je suis pas assez précis, my bad. On peut rajouter des DD à une pool, mais pas un RaidZ. Les RaidZ sont une sorte de “sous pool” dans les pools.


votre avatar

tu m’étonnes beaucoup. On peut justement rajouter un disque à un RAIDZ (qui est une forme de pool et qui est sans doute le plus utilisé). Un truc d’ailleurs est qu’on peut peu à peu remplacer des disques d’un RAID avec des disques plus gros, et quand il y a de la place le RAID s’agrandit.

votre avatar

(reply:52625:OlivierJ) remplacer oui. ajouter un n+1eme disque pour élargir l’espace de stockage non. Je suis dans ce cas, j’ai testé. Il y a un gars qui tente de développer un patch dans son coin depuis une grosse année, les devs regardent pour peut-être l’implémenter un jour (je parle pour zfsonlinux).


votre avatar

Merci, c’est entre autres pour des articles comme celui là que je resterai abonné tant que mes moyens le permettront.

votre avatar

OlivierJ a dit:


C’est un des points forts de ZFS, c’est qu’il n’a pas besoin de tout relire, mais seulement ce qui a été utilisé ; et comme normalement tu évites de remplir à plus de 80 % (éventuellement 90 % mais c’est limite) en usage sérieux, c’est toujours ça de gagné lors de la reconstruction.


Comme tout les RAIDs avec bitmap ou avec provisionnement dynamique (ou les 2: un RAID qui supporte le TRIM).
Perso c’est ce que j’aime beaucoup dans LVM sous Linux et dans Storage Spaces sous Windows: l’allocation par bande. Tu peux faire du Raid6 8 disques avec 10 disques présents: pour chaque bande de 256mo, le RAID va changer de disques. Chaque disque sera ainsi moins utilisé tout en ayant des zones hotspare, et donc une reconstruction immédiate dès que le système se rend compte de la panne.

votre avatar

Très intéressant. :yes: :yes:

votre avatar

On devrait être plus sceptiques vis-à-vis des annonces sur HAMR (Seagate) et MAMR (WD), et “à terme” BPMR. La commercialisation de ces technos a été annoncé sans prudence depuis 10 ans. Surtout, les gains en densité par plateau des disques basés sur ces technos semblent incrémentaux et très lents. Bizarre pour des technos “breakthrough”.



Est-ce que ça ne sent pas la fin des progrès de l’enregistrement magnétique, comme on a vu la fin de la techno optique avec le Blu-ray ?

votre avatar

Il me semble aussi avoir lu des choses de ce genre. 4x4To peut devenir 4x6To (acheter 4 disques de 6To, pour gagner 6To, ouch!). Mais pas 5x4To (en rajoutant juste 1 seul disque de 4to, pour gagner 4To, ou 2, pour 6x4To si on veut 8To).
Ça m’avait dissuadé d’essayer le RAIDZ qui semblait plus accessible sur Linux depuis quelques temps.



Tout à fait. Avec mdadm, au-dessus de 100Go, il ajoute automatiquement une “write-intent bitmap”.
Et quand on fait du RAID 5 sur du matériel pas cher (voir de l’USB ;) ), et qu’un disque sort temporairement du RAID l’ajouter a nouveau ne prend que quelques minutes (apparemment ça se fait même automatiquement dans certains cas). Évidement tout dépend de la taille de cette bitmap et de la durée du retrait.

votre avatar

Bonjour,



À quand une fonctionnalité d’enregistrement d’article favoris ?



Trèsintéressant ce dossier sinon.

votre avatar

Les favoris du navigateur (*) et/ou la possibilité d’enregistrer une page complète () ne te permettent pas de le faire ?
Je ne l’utilise pas, mais peut-être que le RSS complet des abonnés permet aussi ça ?
.
.
(*) Dans Firefox “Ctrl+d” et tu choisi comment tu l’organise, comme les URL de Nextinpact et Inpact Hardware sont plutôt pérenne ça semble le plus simple.
(
) Toujours dans Firefox “Ctrl+s” et choisir “Page web, complète”
(je ne sais pas si c’est pareil dans es autres navigateurs ? Mais probablement pas loin)

Composition, technologies et fonctionnalités : on vous dit tout du disque dur moderne

  • Un disque dur, c’est bien plus qu’un code couleur

  • Plateaux, pistes, secteurs et tête de lecture/écriture

  • CMR, LMR, PMR, SMR : ça change quoi ? 

  • Vous en voulez encore ? Voici DMSMR, HMSMR et HASMR

  • Le TDMR pour améliorer les performances en lecture 

  • BPMR, HAMR et MAMR : la relève se prépare

  • Taille des blocs : 4K vs 512 

  • Pourquoi parle-t-on de disques durs 4Kn ou 512e ?

  • Cache : attentions aux fausses croyances

  • SAS vs S-ATA : en général, vous n’avez pas le choix

  • SED, FIPS, MTBF…

Fermer