Le disque dur MACH.2 de Seagate grimpe jusqu’à 480 Mo/s
Le 23 mars 2018 à 09h21
2 min
Sciences et espace
Sciences
En décembre, Seagate dévoilait sa technologie Multi Actuator dont le but était de doubler les débits des disques durs. L'idée de base était relativement simple : passer d'un à deux « actionneurs ».
Il s'agit pour rappel des contrôleurs permettant aux têtes de lecture/écriture de se déplacer au-dessus des plateaux et de se positionner au bon endroit pour accéder aux données. Jusqu'à présent, toutes les têtes sont positionnées sur le même actionneur et se déplacent donc en même temps.
Durant l'OCP Summit, le fabricant proposait des démonstrations de son disque dur MACH.2 exploitant la technologie Multi Actuator, avec deux groupes de têtes de lecture/écriture indépendants.
Il annonce ainsi un débit de 480 Mo/s, « le plus rapide jamais enregistré sur un seul disque dur, et 60 % plus rapide qu'un disque dur à 15 000 tpm ». Les IOPS sont également doublés (sans données chiffrées cette fois) car le MACH.2 peut envoyer deux flux de données (un par actionneur) en même temps à l'hôte.
Aucune date de disponibilité ou prix n'a été annoncé pour le moment. L'OCP était également l'occasion de revenir sur la technologie HAMR afin de proposer des disques durs de 40 To. Nous l'avions pour rappel expliqués en détail par ici.
Le 23 mars 2018 à 09h21
Commentaires (30)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 23/03/2018 à 09h55
Ah ! Voici enfin une bonne nouvelle ! On frôle désormais la vitesse maximale des SSD en SATA 3, qui vont jusqu’à 550 Mio/s en vitesse de pointe. Mine de rien, avec 40 To de capacité, sans augmentation de vitesse, ce type de capacités serait ridicule. Vivement que tout le marché suive cet exemple !
Le 23/03/2018 à 10h04
Le prix risque d’être élevé, pour des performances nettement inférieures aux SSD, car il ne faut pas oublier qu’un disque dur souffre très vite des problèmes de fragmentation, et les IOPS et la latence sont mauvais.
Le 23/03/2018 à 10h05
La prochaine étape, c’est de remplacer le SATA 3 ! J’espère qu’ils bossent sur un suivant qui sera correctement rétrocompatible, sinon, ce sera aussi douloureux que le passage du PATA (je pense que j’en ai à la cave) au SATA.
On sera encore loin des SSD pour les autres caracs que la vitesse de transfert maxi en conditions idéales, mais pour un gros stockage où l’on met de gros fichiers, c’est vraiment cool.
Le 23/03/2018 à 10h08
ça reste une innovation , même si cher ça fera baisser les prix des disques concurrents ^^
Le 23/03/2018 à 10h21
Je n’en suis pas si sûr : ça reste un disque complexe, qui arrive tard par rapport aux SSD, mais à voir effectivement.
Le 23/03/2018 à 10h29
Ca améliore quoi ? les accès aléatoires sur des petits fichiers ?
> le MACH.2 peut envoyer deux flux de données (un par actionneur) en même temps à l’hôte
A condition que les flux de données soient sur des plateaux différents, non ? Un gros fichier stocké sur un seul plateau ne sera pas amélioré. A moins qu’à l’écriture on fasse justement en sorte que le gros fichier soit stocké sur tous les plateaux. Mais quitte à faire cela, pourquoi ne pas faire en sorte de stocker 1bit sur chacun des 8 plateaux ? Du coup l’intérêt du double actionneur diminue.
Le 23/03/2018 à 10h29
Le 23/03/2018 à 10h35
J’ai le sentiment que lorsque les lecteurs parlent de SSD ils oublient les SSD en M.2 qui vont bien plus vite que ce que permet la SATA 3 ou ce disque Mach 2.
Le 23/03/2018 à 10h52
Pour la fragmentation : c’est un problème très courant, dont sur NTFS évidemment, même avec Windows 10 et Server 2016.
Il y a un mécanisme qui atténue (masque) c’est la défragmentation automatique dont en arrière plan quand on utilise moins l’ordinateur.
Mais le plus flagrant, c’est quand même la lenteur générale d’un disque dur : faire 1 seule chose à la fois, avec une latence élevée et pire encore si ça fragmente, eh bien c’est lent (sur tous les PC neufs que je vois, c’est horrible).
Donc même avec 2 tâches simultanées (si on tombe sur la bonne zone à lire), ça va à peine accélérer, on restes à des années lumière des SSD quand même…
Le 23/03/2018 à 11h12
Le 23/03/2018 à 11h17
C’est une question de quantité de matos incompatible dans mes placards. Les accessoires qu’on a pas sous la main quand on monte un PC dont la connectique des alims où l’on a mis des adaptateurs pour passer du molex au SATA, le stock de câbles PATA qu’on met à la poubelle et au début, on a jamais le câble SATA comme on veut.
Les cartes mères mal foutues (parce que ça prenait plein de place d’avoir tout ça) qui supportaient les deux.
J’aime que mes périphériques restent compatibles longtemps, pour cette raison, l’USB avec son port type-A qui a évolué en étant rétrocompatible, c’est une réussite. Le SATA qui est rétrocompatible, c’est cool aussi, on l’a depuis longtemps maintenant, j’aimerais bien que ça reste rétrocompatible encore longtemps.
Le 23/03/2018 à 11h55
Mais du coup c’est quoi le remplaçant de Sata 3, PCIe ?
Le 23/03/2018 à 12h57
Le 23/03/2018 à 13h11
La petite taille des SSD aurait fait que le standard de port rétrocompatible est passé à la trappe quoi. Comme on peut les mettre à plat sur la carte mère dans un M.2, c’est facile. Pour les disques durs, il faudra utiliser les ports avec les câbles, il suffirait de les rajouter car si j’ai bien compris, le M.2 a profité de du SATAe pour le mettre dans un port de format différent et plus pratique.
Donc, presque tout est là, il manque les ports physiques ? A moins que tout ne se tourne vers l’utilisation exclusive d’autre chose que cette implémentation dans les ports M.2 (parce que c’est un peu tout et n’importe quoi qu’on branche sur ce port physique) ?
Le 23/03/2018 à 13h14
Le 23/03/2018 à 13h25
En fait t’as raison, j’ai utilisé le PATA pendant longtemps où je ne montais pas les PCs (ou peu, pas de stock de matos) et après je suis juste mal tombé en achetant du matos en quantité vers la fin du PATA (vers 2000 quoi, quand j’ai monté des PCs pour moi et des potes de l’IUT), j’ai juste pris le changement dans la tronche en pensant que ça durerait toujours. C’était un peu con, d’autant plus que les débits du PATA paraissait pas fantastique et que j’avais des problèmes avec les câbles à 80 fils pour le dernier standard et que ça voulait pas utiliser la bonne vitesse… Cables de merde ou standard mal foutu, je ne saurais dire aujourd’hui, tout est à la poubelle.
Donc, 1986-2003 pour le PATA,
Et 2003-???? pour le SATA, ça s’en sort pas si mal sur la durée des standards.
Le 23/03/2018 à 13h48
Le 23/03/2018 à 14h03
Entre « Seagate dévoilait sa technologie Multi Actuator dont le but était de doubler les débits des disques durs. »
et « Les IOPS sont également doublés »,
je ne sais pas ce qu’il te faut…
Les IOPS concernent essentiellement la capacité aléatoire, parce que tu peux avoir un débit plutôt élevé avec très peu d’IOPS, avec des lectures ou écritures de taille importante.
Et de toutes façons, on se doute bien qu’en ayant 2 actuateurs indépendants au lieu d’un, on va améliorer l’aléatoire ; ça revient à avoir 2 disques durs de capacité de moitié en parallèle.
Le 23/03/2018 à 15h43
Si tu analyses bien le fonctionnement de Windows en client (7, 8 et 10) ou Serveur (2012 R2, 2016) il y a fragmentation bien sûr, mais aussi des tâches en arrière plan pour défragmenter (sans voir les jolis petits carrés de couleur), c’est quelque chose que je connais assez bien.
Petit exemple de fichier qui fragmente obligatoirement sur tout FS (NTFS ou EXT4) : Base de donnée de type Exchange, mails de type Outlook (PST) ou Thunderbird.
Typiquement, un fichier qui grossi au fil du temps est imprévisible par le FS, donc ça fragmente tôt ou tard.
Par ailleurs, un disque dur est mécaniquement monotâche, il doit se déplacer pour faire une tâche, puis l’autre, etc…
L’OS peut donner l’illusion que le disque dur fait plusieurs choses à la fois, mais en pratique le HDD va lentement aller chercher un bout de fichier ici, un autre là, etc… selon dans quel ordre ce sera demandé par l’OS mais aussi par le firmware du HDD.
Enfin, le “avant” sans SSD n’est pas si vieux : jusqu’à Windows 7, selon l’usage, voire Windows 8, à peu près tenable.
Mais depuis Windows 10 et sa lourdeur, je vois régulièrement des PC neufs (encore vu un paquet en 2017 et un peu 2018) qui ont Windows 10 avec HDD et qui rament comme pas possible.
Le SSD est devenu vraiment encore plus nécessaire avec cet OS très lourd qu’est Windows 10.
Le 23/03/2018 à 16h13
Le 23/03/2018 à 18h56
Le 23/03/2018 à 19h54
Le 24/03/2018 à 07h50
Imaginons : je copie vers un disque externe en USB 3, vide, aucun fragment :
La copie vers le HDD est lente (10 à 20 Mo/s en moyenne, alors qu’il est capable de monter à 100 Mo/s en écriture séquentielle, si pas trop de petits fichiers).
Copie retour : peut-être 60, 80 ou même 100 Mo/s selon la taille des fichiers.
Vers un SSD externe, c’est plus flagrant bien sûr.
Magie ?
Non, juste le disque dur source qui était fragmenté, un classique.
Je ne copie pas vers une clé USB, je sais bien que les débits en écriture sont rarement bons.
Le 24/03/2018 à 08h43
Le 24/03/2018 à 11h26
Non mais je n’en suis pas à ma 1ère intervention informatique, et j’ai déjà vu ça aussi en interne SATA (clonage par exemple, ou sauvegarde simple).
Et pour moi je le répète : vu la technologie des disques durs, ça me semble tout à fait normal.
Le 25/03/2018 à 08h51
Ca ne serait pas riducule, on est passé de 44Mo/s sur 1Go a 115Mo/s avec 2To. 160Mo/s avec 6To
Le plus gros avantage du SSD c’est les temps d’accès.
Le 26/03/2018 à 09h02
Je me pose la même question, si l’image est représentative, ça revient “juste” à deux disques en parallèle. Il faut donc que les données soient partagées entre les 2 pour avoir un gain de vitesse.
Le 26/03/2018 à 09h14
Le 03/04/2018 à 18h26
Le 03/04/2018 à 19h32
Cela peut être lié à NTFS et Windows qui aime peut-être toujours remplir les espaces vides, même s’il faut découper des fichiers…
Mais à l’usage vraiment, vu le nombre de PC que je vois (sauvegarde complète par exemple) en copie USB 3 ou interne SATA, c’est hallucinant comme ça fragmente.
Et sur Serveur Windows idem, défragmentation automatique tous les mois.
Après pour une fragmentation commune, Windows / Linux, c’est les grosses BDD, dont mails, c’est obligé que ça fragmente car on ne connaît pas à l’avance la taille des fichiers et ça grossi petit à petit.