Le disque dur MACH.2 de Seagate grimpe jusqu'à 480 Mo/s

Le disque dur MACH.2 de Seagate grimpe jusqu’à 480 Mo/s

Le disque dur MACH.2 de Seagate grimpe jusqu'à 480 Mo/s

En décembre, Seagate dévoilait sa technologie Multi Actuator dont le but était de doubler les débits des disques durs. L'idée de base était relativement simple : passer d'un à deux « actionneurs ».

Il s'agit pour rappel des contrôleurs permettant aux têtes de lecture/écriture de se déplacer au-dessus des plateaux et de se positionner au bon endroit pour accéder aux données. Jusqu'à présent, toutes les têtes sont positionnées sur le même actionneur et se déplacent donc en même temps.

Durant l'OCP Summit, le fabricant proposait des démonstrations de son disque dur MACH.2 exploitant la technologie Multi Actuator, avec deux groupes de têtes de lecture/écriture indépendants.

Il annonce ainsi un débit de 480 Mo/s, « le plus rapide jamais enregistré sur un seul disque dur, et 60 % plus rapide qu'un disque dur à 15 000 tpm ». Les IOPS sont également doublés (sans données chiffrées cette fois) car le MACH.2 peut envoyer deux flux de données (un par actionneur) en même temps à l'hôte.

Aucune date de disponibilité ou prix n'a été annoncé pour le moment. L'OCP était également l'occasion de revenir sur la technologie HAMR afin de proposer des disques durs de 40 To. Nous l'avions pour rappel expliqués en détail par ici.

Commentaires (30)


Ah ! Voici enfin une bonne nouvelle ! On frôle désormais la vitesse maximale des SSD en SATA 3, qui vont jusqu’à 550 Mio/s en vitesse de pointe. Mine de rien, avec 40 To de capacité, sans augmentation de vitesse, ce type de capacités serait ridicule. Vivement que tout le marché suive cet exemple !


Le prix risque d’être élevé, pour des performances nettement inférieures aux SSD, car il ne faut pas oublier qu’un disque dur souffre très vite des problèmes de fragmentation, et les IOPS et la latence sont mauvais.


La prochaine étape, c’est de remplacer le SATA 3 ! J’espère qu’ils bossent sur un suivant qui sera correctement rétrocompatible, sinon, ce sera aussi douloureux que le passage du PATA (je pense que j’en ai à la cave) au SATA.



On sera encore loin des SSD pour les autres caracs que la vitesse de transfert maxi en conditions idéales, mais pour un gros stockage où l’on met de gros fichiers, c’est vraiment cool.


ça reste une innovation , même si cher ça fera baisser les prix des disques concurrents ^^


Je n’en suis pas si sûr : ça reste un disque complexe, qui arrive tard par rapport aux SSD, mais à voir effectivement.


Ca améliore quoi ? les accès aléatoires sur des petits fichiers ?



> le MACH.2 peut envoyer deux flux de données (un par actionneur) en même temps à l’hôte



 A condition que les flux de données soient sur des plateaux différents, non ? Un gros fichier stocké sur un seul plateau ne sera pas amélioré. A moins qu’à l’écriture on fasse justement en sorte que le gros fichier soit stocké sur tous les plateaux. Mais quitte à faire cela, pourquoi ne pas faire en sorte de stocker 1bit sur chacun des 8 plateaux ? Du coup l’intérêt du double actionneur diminue.       

 

 








Sans intérêt a écrit :



Ah ! Voici enfin une bonne nouvelle ! On frôle désormais la vitesse maximale des SSD en SATA 3, qui vont jusqu’à 550 Mio/s en vitesse de pointe.





En fait ça fait des années que les SSD sont limités par le SATA à 550 Mo/s.







Sans intérêt a écrit :



Mine de rien, avec 40 To de capacité, sans augmentation de vitesse, ce type de capacités serait ridicule. Vivement que tout le marché suive cet exemple !





Ridicule, je ne dirais pas, mais bien sûr toute augmentation des débits est intéressante. Ça reste utile d’avoir des grosses capacités pour du stockage tiède ou froid, avec tout de même de bons débits (exploitation de logs, data mining, etc.).







Etre_Libre a écrit :



Le prix risque d’être élevé, pour des performances nettement inférieures aux SSD, car il ne faut pas oublier qu’un disque dur souffre très vite des problèmes de fragmentation.





Pas du tout.

Ou alors tu utilises encore la FAT de Microsoft…







ArchangeBlandin a écrit :



La prochaine étape, c’est de remplacer le SATA 3 ! J’espère qu’ils bossent sur un suivant qui sera correctement rétrocompatible, sinon, ce sera aussi douloureux que le passage du PATA au SATA





En quoi ça a été douloureux ?







v1nce a écrit :



Ca améliore quoi ? les accès aléatoires sur des petits fichiers ?





C’est écrit dans l’article ce me semble. Ça améliore à la fois les accès aléatoires en général, et les débits.



J’ai le sentiment que lorsque les lecteurs parlent de SSD ils oublient les SSD en M.2 qui vont bien plus vite que ce que permet la SATA 3 ou ce disque Mach 2.


Pour la fragmentation : c’est un problème très courant, dont sur NTFS évidemment, même avec Windows 10 et Server 2016.



Il y a un mécanisme qui atténue (masque) c’est la défragmentation automatique dont en arrière plan quand on utilise moins l’ordinateur.



Mais le plus flagrant, c’est quand même la lenteur générale d’un disque dur : faire 1 seule chose à la fois, avec une latence élevée et pire encore si ça fragmente, eh bien c’est lent (sur tous les PC neufs que je vois, c’est horrible).

Donc même avec 2 tâches simultanées (si on tombe sur la bonne zone à lire), ça va à peine accélérer, on restes à des années lumière des SSD quand même…








Etre_Libre a écrit :



Pour la fragmentation : c’est un problème très courant, dont sur NTFS évidemment, même avec Windows 10 et Server 2016.

Il y a un mécanisme qui atténue (masque) c’est la défragmentation automatique dont en arrière plan quand on utilise moins l’ordinateur.





On est au 21e siècle quand même, ça fait longtemps qu’un filesystem sérieux ne fragmente quasiment pas, et qu’on a arrêté de lancer “defrag” avec ses jolies carrés colorés qui bougent magiquement.

Peut-être que NTFS fragmente plus que les filesystems Unix et Linux (qu’on ne défragmente jamais parce que ça ne sert à rien), mais en production (sous NTFS) je ne crois pas qu’on s’amuse à essayer de défragmenter, ça bouffe des ressources pour pas grand chose.







Etre_Libre a écrit :



Mais le plus flagrant, c’est quand même la lenteur générale d’un disque dur





Depuis qu’on a des SSD, les disques durs magnétiques paraissent lents, c’est sûr.

Cela dit on s’en tirait très bien avec des disques magnétiques avant, pas difficile il n’y avait que ça.

Et on continue à s’en tirer bien dans le monde professionnel aussi, même si on voit de plus en plus de SSD.







Etre_Libre a écrit :



faire 1 seule chose à la fois, avec une latence élevée et pire encore si ça fragmente, eh bien c’est lent (sur tous les PC neufs que je vois, c’est horrible).

Donc même avec 2 tâches simultanées (si on tombe sur la bonne zone à lire), ça va à peine accélérer





J’ai l’impression que tu as une drôle de vision du fonctionnement d’un disque dur.

Le multitâche sur disque n’a pas attendu les SSD pour fonctionner.

Et je ne vois pas en quoi un PC neuf serait plus lent qu’un PC pas neuf (ça serait plutôt l’inverse). Peut-être que sous Windows ça se voit plus parce que le système fait souvent des trucs qu’on ne pige pas.



C’est une question de quantité de matos incompatible dans mes placards. Les accessoires qu’on a pas sous la main quand on monte un PC dont la connectique des alims où l’on a mis des adaptateurs pour passer du molex au SATA, le stock de câbles PATA qu’on met à la poubelle et au début, on a jamais le câble SATA comme on veut.

Les cartes mères mal foutues (parce que ça prenait plein de place d’avoir tout ça) qui supportaient les deux.



J’aime que mes périphériques restent compatibles longtemps, pour cette raison, l’USB avec son port type-A qui a évolué en étant rétrocompatible, c’est une réussite. Le SATA qui est rétrocompatible, c’est cool aussi, on l’a depuis longtemps maintenant, j’aimerais bien que ça reste rétrocompatible encore longtemps.


Mais du coup c’est quoi le remplaçant de Sata 3, PCIe ?








ArchangeBlandin a écrit :



La prochaine étape, c’est de remplacer le SATA 3 ! J’espère qu’ils bossent sur un suivant qui sera correctement rétrocompatible, sinon, ce sera aussi douloureux que le passage du PATA (je pense que j’en ai à la cave) au SATA.







Euh… Le successeur de SATA 3 existe depuis longtemps, il s’appelle SATA Express et il fait flop malgré ses 2 Go/s et sa rétrocompatible car en fait on s’en fout un peu, les gens ayant besoin de performance utilisant SAS (2 Go/s et surtout capable de gérer plusieurs files d’attente) et étant près à payer pour, et les autres achetant des gros disques durs pour la capacité et non la vitesse (200 Mo/s étant suffisant pour la majorité de gens qui stockent pour pas cher), la vitesse étant sur le SSD en M.2 (2 Go/s aussi, avec un max d’IOPS car plus adapté) bien plus petit.



Bref, il n’y aura rien d’autre en interface, il y en a déjà assez, et je doute que des disques durs rapides mais chers soient produits en gros volumes (qui a des disques du 15k RPM? Plus rapide pour plus cher existe déjà et est un marché de niche).



La petite taille des SSD aurait fait que le standard de port rétrocompatible est passé à la trappe quoi. Comme on peut les mettre à plat sur la carte mère dans un M.2, c’est facile. Pour les disques durs, il faudra utiliser les ports avec les câbles, il suffirait de les rajouter car si j’ai bien compris, le M.2 a profité de du SATAe pour le mettre dans un port de format différent et plus pratique.



Donc, presque tout est là, il manque les ports physiques ? A moins que tout ne se tourne vers l’utilisation exclusive d’autre chose que cette implémentation dans les ports M.2 (parce que c’est un peu tout et n’importe quoi qu’on branche sur ce port physique) ?








ArchangeBlandin a écrit :



C’est une question de quantité de matos incompatible dans mes placards. […]

Les cartes mères mal foutues (parce que ça prenait plein de place d’avoir tout ça) qui supportaient les deux.

J’aime que mes périphériques restent compatibles longtemps





Ça dépend de ton âge, mais pour moi qui ai bien connu l’IDE (= PATA), c’est resté très longtemps, avant le remplacement progressif par le SATA. J’ai aussi eu une carte mère avec les 2 standards, et dû jeter des câbles PATA (et aussi des SCSI, qui étaient onéreux, car l’IDE c’était nul sur PC), mais c’est le lot de l’informatique de changer. Jusqu’à présent, un standard qui aura tenu très longtemps, c’est en tous cas l’USB, du point de vue des connecteurs.







tpeg5stan a écrit :



Mais du coup c’est quoi le remplaçant de Sata 3, PCIe ?









Jerome7573 a écrit :



Euh… Le successeur de SATA 3 existe depuis longtemps, il s’appelle SATA Express […] et les autres achetant des gros disques durs pour la capacité et non la vitesse (200 Mo/s étant suffisant pour la majorité de gens qui stockent pour pas cher).

Bref, il n’y aura rien d’autre en interface, il y en a déjà assez





<img data-src=" />

Effectivement, ne serait-ce qu’avec un SSD courant qui débite jusqu’à 550 Mo/s (et des 10 000+ IOPS), je ne crois pas que ce soit ça qui bride un PC moderne même puissant. (et pour te paraphraser, côté serveur on a ce qu’il faut).

Et on a encore du temps avant qu’un disque magnétique sature du SATA3, quoique le disque MACH.2 présenté ici s’en approche.



En fait t’as raison, j’ai utilisé le PATA pendant longtemps où je ne montais pas les PCs (ou peu, pas de stock de matos) et après je suis juste mal tombé en achetant du matos en quantité vers la fin du PATA (vers 2000 quoi, quand j’ai monté des PCs pour moi et des potes de l’IUT), j’ai juste pris le changement dans la tronche en pensant que ça durerait toujours. C’était un peu con, d’autant plus que les débits du PATA paraissait pas fantastique et que j’avais des problèmes avec les câbles à 80 fils pour le dernier standard et que ça voulait pas utiliser la bonne vitesse… Cables de merde ou standard mal foutu, je ne saurais dire aujourd’hui, tout est à la poubelle.



Donc, 1986-2003 pour le PATA,

Et 2003-???? pour le SATA, ça s’en sort pas si mal sur la durée des standards.








OlivierJ a écrit :



C’est écrit dans l’article ce me semble. Ça améliore à la fois les accès aléatoires en général, et les débits.







“Ce” me semble pas.&nbsp;



Entre « Seagate dévoilait sa technologie Multi Actuator dont le but était de doubler les débits des disques durs. »

et « Les IOPS sont également doublés »,

je ne sais pas ce qu’il te faut…

Les IOPS concernent essentiellement la capacité aléatoire, parce que tu peux avoir un débit plutôt élevé avec très peu d’IOPS, avec des lectures ou écritures de taille importante.

Et de toutes façons, on se doute bien qu’en ayant 2 actuateurs indépendants au lieu d’un, on va améliorer l’aléatoire ; ça revient à avoir 2 disques durs de capacité de moitié en parallèle.


Si tu analyses bien le fonctionnement de Windows en client (7, 8 et 10) ou Serveur (2012 R2, 2016) il y a fragmentation bien sûr, mais aussi des tâches en arrière plan pour défragmenter (sans voir les jolis petits carrés de couleur), c’est quelque chose que je connais assez bien.



Petit exemple de fichier qui fragmente obligatoirement sur tout FS (NTFS ou EXT4) : Base de donnée de type Exchange, mails de type Outlook (PST) ou Thunderbird.

Typiquement, un fichier qui grossi au fil du temps est imprévisible par le FS, donc ça fragmente tôt ou tard.



Par ailleurs, un disque dur est mécaniquement monotâche, il doit se déplacer pour faire une tâche, puis l’autre, etc…

L’OS peut donner l’illusion que le disque dur fait plusieurs choses à la fois, mais en pratique le HDD va lentement aller chercher un bout de fichier ici, un autre là, etc… selon dans quel ordre ce sera demandé par l’OS mais aussi par le firmware du HDD.



Enfin, le “avant” sans SSD n’est pas si vieux : jusqu’à Windows 7, selon l’usage, voire Windows 8, à peu près tenable.

Mais depuis Windows 10 et sa lourdeur, je vois régulièrement des PC neufs (encore vu un paquet en 2017 et un peu 2018) qui ont Windows 10 avec HDD et qui rament comme pas possible.

Le SSD est devenu vraiment encore plus nécessaire avec cet OS très lourd qu’est Windows 10.








Etre_Libre a écrit :



Si tu analyses bien le fonctionnement de Windows en client (7, 8 et 10) ou Serveur (2012 R2, 2016) il y a fragmentation bien sûr, mais aussi des tâches en arrière plan pour défragmenter (sans voir les jolis petits carrés de couleur), c’est quelque chose que je connais assez bien.





Dire “il y a fragmentation”, ça ne préjuge pas du tout de son degré ni de l’impact que ça a sur les performances réelles.







Etre_Libre a écrit :



Petit exemple de fichier qui fragmente obligatoirement sur tout FS (NTFS ou EXT4) : Base de donnée de type Exchange, mails de type Outlook (PST) ou Thunderbird.

Typiquement, un fichier qui grossi au fil du temps est imprévisible par le FS, donc ça fragmente tôt ou tard.





Mais en pratique ce n’est pas un problème, en tous cas pas sous Unix et Linux. On peut voir la fragmentation d’un ext4, mais manifestement l’impact est négligeable. Si la fragmentation c’est qu’un fichier de 500 Mo est découpé en blocs de plusieurs Mo disséminés, en pratique ça a un impact faible.







Etre_Libre a écrit :



Par ailleurs, un disque dur est mécaniquement monotâche, il doit se déplacer pour faire une tâche, puis l’autre, etc…

L’OS peut donner l’illusion que le disque dur fait plusieurs choses à la fois, mais en pratique le HDD va lentement aller chercher un bout de fichier ici, un autre là, etc… selon dans quel ordre ce sera demandé par l’OS mais aussi par le firmware du HDD.





Merci Captain Obvious, on l’ignorait totalement. <img data-src=" />







Etre_Libre a écrit :



Enfin, le “avant” sans SSD n’est pas si vieux : jusqu’à Windows 7, selon l’usage, voire Windows 8, à peu près tenable.

Mais depuis Windows 10 et sa lourdeur





Avec n’importe quel Windows, c’est lourd (sans blaguer). Et encore plus qu’avec Linux, passer au SSD transfigure une machine Windows. Et sous XP en tous cas, la swap était mal gérée, et là aussi le disque magnétique n’aidait pas.

Anecdote, j’avais rendu beaucoup plus réactif un PC XP en 2014 (mon vieux portable pro) en ajoutant de la RAM (pour passer de 2 à 3 Go) et en virant complètement le swap, ça marchait vraiment bien.







Etre_Libre a écrit :



je vois régulièrement des PC neufs (encore vu un paquet en 2017 et un peu 2018) qui ont Windows 10 avec HDD et qui rament comme pas possible.

Le SSD est devenu vraiment encore plus nécessaire avec cet OS très lourd qu’est Windows 10.





C’est possible, je connais mal. J’avais cru que avec Windows 7 en tous cas, le système avait réussi à ne pas s’alourdir et avait amélioré certaines choses, dont la gestion du swap.









OlivierJ a écrit :



Mais en pratique ce n’est pas un problème, en tous cas pas sous Unix et Linux. On peut voir la fragmentation d’un ext4, mais manifestement l’impact est négligeable. Si la fragmentation c’est qu’un fichier de 500 Mo est découpé en blocs de plusieurs Mo disséminés, en pratique ça a un impact faible.







Sous Linux, je n’ai pas testé, mais ça ne peut pas être miraculeux quand même : quand un client mail lourd doit ouvrir ses dossiers de quelques Go, ça doit mettre un certain à s’ouvrir… (c’est ce que je constate sous Windows)



“Pire” encore, quand je dois sauvegarder les données d’un PC Windows qui n’est pas souvent défragmenté, c’est sacrément long, alors qu’une fois l’OS réinstallé, la restauration est bien plus rapide (j’essaie de sauvegarder sur SSD, quand les sauvegardes ne dépassent pas 100 Go).









Etre_Libre a écrit :



“Pire” encore, quand je dois sauvegarder les données d’un PC Windows qui n’est pas souvent défragmenté, c’est sacrément long, alors qu’une fois l’OS réinstallé, la restauration est bien plus rapide (j’essaie de sauvegarder sur SSD, quand les sauvegardes ne dépassent pas 100 Go).



Tes sauvegardes se font sur quoi? Si c’est sur un média USB (clé ou disque dur, peu importe), le débit en lecture est plus élevé qu’en écriture, donc normal que la restauration soit plus rapide.



Imaginons : je copie vers un disque externe en USB 3, vide, aucun fragment :



La copie vers le HDD est lente (10 à 20 Mo/s en moyenne, alors qu’il est capable de monter à 100 Mo/s en écriture séquentielle, si pas trop de petits fichiers).

Copie retour : peut-être 60, 80 ou même 100 Mo/s selon la taille des fichiers.



Vers un SSD externe, c’est plus flagrant bien sûr.



Magie ?



Non, juste le disque dur source qui était fragmenté, un classique.



Je ne copie pas vers une clé USB, je sais bien que les débits en écriture sont rarement bons.








Etre_Libre a écrit :



Imaginons : je copie vers un disque externe en USB 3, vide, aucun fragment :



La copie vers le HDD est lente (10 à 20 Mo/s en moyenne, alors qu’il est capable de monter à 100 Mo/s en écriture séquentielle, si pas trop de petits fichiers).

Copie retour : peut-être 60, 80 ou même 100 Mo/s selon la taille des fichiers.



Vers un SSD externe, c’est plus flagrant bien sûr.



Magie ?



Non, juste le disque dur source qui était fragmenté, un classique.



Je ne copie pas vers une clé USB, je sais bien que les débits en écriture sont rarement bons.



Maintenant, tu peux relire ce que j’ai écrit : l’USB n’a jamais été bon pour l’écriture. Donc 100% normal que tu aies des débits de merde.

Fais la même chose en SATA vers SATA, tu auras des débits plus élevés pour la copie.



Non mais je n’en suis pas à ma 1ère intervention informatique, et j’ai déjà vu ça aussi en interne SATA (clonage par exemple, ou sauvegarde simple).

Et pour moi je le répète : vu la technologie des disques durs, ça me semble tout à fait normal.


Ca ne serait pas riducule, on est passé de 44Mo/s sur 1Go a 115Mo/s avec 2To. 160Mo/s avec 6To



Le plus gros avantage du SSD c’est les temps d’accès.


Je me pose la même question, si l’image est représentative, ça revient “juste” à deux disques en parallèle. Il faut donc que les données soient partagées entre les 2 pour avoir un gain de vitesse.








Xima a écrit :



Je me pose la même question, si l’image est représentative, ça revient “juste” à deux disques en parallèle. Il faut donc que les données soient partagées entre les 2 pour avoir un gain de vitesse.







Et si tu t’efforces de les partager entre les 2 autant essayer de les écrire en silos, du coup l’intérêt de 2 actionneurs diminue.

(sauf si on veut éviter que le crash d’une tête flingue toutes les données).



&nbsp;&nbsp;









Etre_Libre a écrit :



Sous Linux, je n’ai pas testé, mais ça ne peut pas être miraculeux quand même : quand un client mail lourd doit ouvrir ses dossiers de quelques Go, ça doit mettre un certain à s’ouvrir… (c’est ce que je constate sous Windows)





Je ne sais pas si c’est miraculeux, mais on ne s’est JAMAIS préoccupé de la fragmentation sous Unix ou Linux, encore une fois c’est un truc Windows.







Etre_Libre a écrit :



“Pire” encore, quand je dois sauvegarder les données d’un PC Windows qui n’est pas souvent défragmenté, c’est sacrément long, alors qu’une fois l’OS réinstallé, la restauration est bien plus rapide (j’essaie de sauvegarder sur SSD, quand les sauvegardes ne dépassent pas 100 Go).





C’est bizarre ton histoire, je veux bien que certains fichiers soient fragmentés, mais enfin ça ne veut pas dire que chaque fichier a été découpé en des dizaines de bouts éloignés sur le disque, ça n’a aucun sens. La plupart des fichiers sont écrits sur des disques où il y a largement de la place, les fichiers doivent être contigus pour l’essentiel (ou en quelques bouts pour un fichier assez gros, ce qui ne change guère les performances).







Patch a écrit :



l’USB n’a jamais été bon pour l’écriture. Donc 100% normal que tu aies des débits de merde.





En fait je ne sais pas ce qui te fait dire ça. Sur mes bonnes clés USB ou sur mon disque externe USB, j’écris aussi vite que je lis (suis en USB 2 côté ordinateur), c’est à dire au max soit environ 35 Mo/s.

Après, on ne sait pas ce qu’il a utilisé comme logiciel de sauvegarde. Il me semble que pour aller dans ton sens, on a beaucoup moins d’IOPS possible (et de côté multitâche/multi-accès) quand on connecte un disque en USB (versus du e-SATA par ex).



Cela peut être lié à NTFS et Windows qui aime peut-être toujours remplir les espaces vides, même s’il faut découper des fichiers…



Mais à l’usage vraiment, vu le nombre de PC que je vois (sauvegarde complète par exemple) en copie USB 3 ou interne SATA, c’est hallucinant comme ça fragmente.



Et sur Serveur Windows idem, défragmentation automatique tous les mois.



Après pour une fragmentation commune, Windows / Linux, c’est les grosses BDD, dont mails, c’est obligé que ça fragmente car on ne connaît pas à l’avance la taille des fichiers et ça grossi petit à petit.


Fermer