Connexion
Abonnez-vous

Toshiba MC04 : des disques durs de 5 To endurants pour les serveurs

180 To par an, les SSD en rigolent encore

Toshiba MC04 : des disques durs de 5 To endurants pour les serveurs

Le 23 mai 2014 à 07h30

Après la série MG04 au début de l'année, c'est au tour des disques durs Toshiba MC04 d'arriver dans une version de 5 To. Ces derniers sont principalement pensés pour les datacenters et les systèmes de stockage en ligne. Le fabricant met en avant une endurance plus élevée que la moyenne avec 180 To par an... mais d'autres fabricants montent beaucoup plus haut.

Toshiba MC04

 

Longtemps restée en place, la barrière des 4 To est désormais régulièrement dépassée par les fabricants de disques durs, que ce soit HGST, Seagate ou encore Toshiba. Les deux premiers grimpent même jusqu'à 6 To de stockage, contre 5 To pour le dernier avec sa série MG04.

 

Mais Toshiba ne compte pas en rester là et annonce que ses disques durs (3,5 pouces,7 200 tpm) MC04 sont désormais disponibles en version de 5 To. Cette gamme est principalement pensée pour les datacenters gérant de gros systèmes de stockage en ligne, et qui sont donc très exigeants sur la qualité et la fiabilité. Le constructeur met d'ailleurs en avant une endurance de 180 To par an, qu'il annonce comme étant trois fois supérieure à la moyenne du marché.

 

Néanmoins, d'autres fabricants comme Western Digital vont encore plus loin avec les disques durs des séries Se, Re et Xe qui sont respectivement annoncé pour 180 To, 550 To et même de l'illimité pour les Xe :

 

Toshiba MC04

 

Côté débit, il est question de 170 Mo/s au maximum, là où les MC04 peuvent grimper jusqu'à 205 Mo/s. Pour autant, cela devrait être largement suffisant, les disques étant généralement installés dans de grosses grappes RAID, le débit n'est pas forcément un point primordial. La latence moyenne est de 4,17 ms et la mémoire cache de 128 Mo. Toutes les caractéristiques techniques sont disponibles par ici.

 

Toshiba précise enfin que les disques durs MC04 de 5 To sont dès à présent disponibles, mais dans des quantités limitées. Aucun prix n'a été annoncé, mais étant donnée la cible, il y a des chances qu'il soit relativement élevé.

Commentaires (25)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







OlivierJ a écrit :



Le mieux est de passer sur du ZFS, qui gère la redondance lui-même et ce très bien, et qui fait encore mieux, qui vérifie l’intégrité des données via un checksum de tous les blocs. Un ami qui a monté sa société d’hébergement n’utilise presque plus que ça (alors qu’avant c’était du RAID matériel le plus souvent) ; il m’a aussi précisé que le système de checksum des données a déjà servi (les volumes des filesystem étant devenus tellement énormes devant le taux d’erreur).





Le ZFS n’est pas compatible avec toutes les plateformes :-))

Ta banque n’ira pas mettre son DB2 z/OS sur du ZFS

Et les disques ne sont pas nécessairement peu utilisés , s’ils sont presque pleins, le temps de reconstruction sera sensiblement le même qu’avec du RAID .

La seule raison pour laquelle ça va légèremlent plus vite c’est que ça ne reconstruit que l’espace utilisé



Cela dit le ZFS est un excellent choix pour pas mal d’usage

<img data-src=" />


votre avatar







christophe_gossa a écrit :



J’ai plus l’impression que dans le monde du stockage “grande capacité”, le RAID disparait progressivement… Trop couteux, trop complexe.

Les disques se montent en JBOD et on multiplie la redondance sur les serveurs.







ça c’est quand on n’a pas peur et qu’on n’a pas besoin de bons temps de réponse <img data-src=" />


votre avatar







JoePike a écrit :



Le ZFS n’est pas compatible avec toutes les plateformes :-))

Ta banque n’ira pas mettre son DB2 z/OS sur du ZFS

Et les disques ne sont pas nécessairement peu utilisés , s’ils sont presque pleins, le temps de reconstruction sera sensiblement le même qu’avec du RAID .

La seule raison pour laquelle ça va légèremlent plus vite c’est que ça ne reconstruit que l’espace utilisé



Cela dit le ZFS est un excellent choix pour pas mal d’usage

<img data-src=" />





C’est clair, pour le choix. Je n’ai pas mentionné toutes les capacités du filesystem, les snapshots a volonté et récursifs (facilite les backups, entre autres), le transfert par le réseau d’un snapshot (permettant la synchronisation facile avec une baie distante), etc.

Et comme il y a Sun (et maintenant Oracle) derrière et que ça tourne depuis des années, je ne pense pas qu’une banque doive être frileuse.

Pour les plateformes, en effet sous Linux il n’est pas encore au niveau des Solaris/OpenSolaris/OpenIndiana/BSD. La personne que je connais qui s’en sert utilise aussi une configuration avec un OS dérivé d’un des précédents, capable de gérer le full ZFS ainsi que les VM Xen/KVM. ZFS est également utilisé sur des NAS/SAN montés en NFS.


votre avatar



C’est pas une question de frilosité .. c’est tout simplement que ça ne marchera pas avec un mainframe z/OS ( legacy je sais … mais en attendant faut pas se leurrer c’est la dessus que les grosses banques ou assurances ont une bonne partie de leurs données)

<img data-src=" />

votre avatar

@JoePike:

Pour les grosse banques j’en sais rien, mais de ce que j’en ai testé de ZFS, c’est clairement le pied sur bcp de points:




  • indépendant du materiel : tu peux remonter la grappe sur n’importe quelle archi en 5minutes en cas de panne.

  • le temps de reconstruction d’un DD dépend de ta capacité a remplir un DD :

    si tu remplis un DD 4To en 8h, tu refais un RAIDZ1 en 8h (pas encore testé le RAIDZ2 par contre)

    -en interne, tu cumules les débits des DDs en //, ie 1DD=150Mo/s, 2DDs=300Mo/s, 4+1parité=600Mo/s; donc pour doubler un raidZ1 de 5DDs sur 5 autres, je mets 8 a 12h.

votre avatar







OlivierJ a écrit :



C’est clair, pour le choix. Je n’ai pas mentionné toutes les capacités du filesystem, les snapshots a volonté et récursifs (facilite les backups, entre autres), le transfert par le réseau d’un snapshot (permettant la synchronisation facile avec une baie distante), etc.

Et comme il y a Sun (et maintenant Oracle) derrière et que ça tourne depuis des années, je ne pense pas qu’une banque doive être frileuse.

Pour les plateformes, en effet sous Linux il n’est pas encore au niveau des Solaris/OpenSolaris/OpenIndiana/BSD. La personne que je connais qui s’en sert utilise aussi une configuration avec un OS dérivé d’un des précédents, capable de gérer le full ZFS ainsi que les VM Xen/KVM. ZFS est également utilisé sur des NAS/SAN montés en NFS.





Question d’ignare en la matière, existe-t-il de bons outils pour, en cas de soucis, récupérer les données ?

Je sais que je suis resté sur l’ext3 pendant trèès longtemps au lieu de migrer sur l’ext4 parce que les outils d’analyse de système de fichiers pour récupérer des données en cas de gros plantage ne le supportaient pas encore.

Quid du ZFS ?

Je sais bien qu’avec les systèmes modernes les risques sont plus limités, mais tout de même…


votre avatar

Je suis sceptique

“spécial data center ? en 7200rpm ?

et avec du 5to on met combien de temps pour reconstruire une grappe de RAID5 par exemple ?

<img data-src=" />

votre avatar

une dizaine d’heure

votre avatar

Le Se serait un bon concurrent aux Red de WD pour les utilisateurs domestiques en NAS ou les petites structures. Faut voir le prix maintenant.

votre avatar







sylvere a écrit :



une dizaine d’heure







La tu vois j’ai de gros doutes <img data-src=" />


votre avatar







JoePike a écrit :



La tu vois j’ai de gros doutes <img data-src=" />







ca doit être à peu près ca.

pour mon RAID 5 de 2 To, ca prend environ 5 heures.



votre avatar







jeje07 a écrit :



ca doit être à peu près ca.

pour mon RAID 5 de 2 To, ca prend environ 5 heures.





ta grappe fait combien de disques de quelle capacité ?

et qui( ou combien ) l’accède pendant la reconstruction ?

Pour moi avec ce genre de capacité il faut passer en RAID 6 car ça risque de durer plus de 24h sur une grappe de 5 à 7 gamelles


votre avatar







JoePike a écrit :



ta grappe fait combien de disques de quelle capacité ?

et qui( ou combien ) l’accède pendant la reconstruction ?

Pour moi avec ce genre de capacité il faut passer en RAID 6 car ça risque de durer plus de 24h sur une grappe de 5 à 7 gamelles







Avec des disques de telle capacité, en RAID5 ouais faudrait 10/12h, en général sur les SAN (NetApp, Dell PowerVault), 30% des ressources de la baie sont utilisées pour le rebuild.



Sur du RAID6 faut compter 30h Minimum.



Sinon, pour du stockage de masse, à voir pour passer sur du Disk Pool, au moins les temps de rebuild sont super corrects (3 4h maxi).



Et la tolérance aux doubles pannes encore meilleure.



Cela dit, quand on voit le taux de panne sur les disques de 3 et 4TB, j’imagine ce que ça va donner sur les 5TB… Même en Near-Line SAS.



A voir dans le futur… Mais dans un NAS domestique ou pour une PME avec 1 petit serveur, et quelques PC, 4 disques 5TB en RAID5 ça suffirait largement ^^


votre avatar







JoePike a écrit :



ta grappe fait combien de disques de quelle capacité ?

et qui( ou combien ) l’accède pendant la reconstruction ?

Pour moi avec ce genre de capacité il faut passer en RAID 6 car ça risque de durer plus de 24h sur une grappe de 5 à 7 gamelles







4 disques de 640 Go.



votre avatar

Comment vous formatez les gros HD?



hypothèse: j’ai un 3Go et je fais 2 partitions FAT32 de moins de 2Go… Il n’y a aucune raison que le disque ne soit plus reconnu? <img data-src=" />

votre avatar

Quelque soit les chiffres avancés, cette information a un intérêt principal : elle montre bien que les fabricants savent qu’ils ont un gros souci de fiabilité.



Selon les chiffres de WD, il ne faut pas compter avoir un DD fiable au dessus de 900Go. C’est le chiffre de 2014 … ce qui montre bien que les disques de 1Go, quand ils ont ete introduit a la vente il y a deja plusieurs annees, étaient loin d’etre fiable sur le long-terme.



Il faut pas s’etonner que le HD “consumer” rende vie apres 1 an d’utilisation.

votre avatar







nigol a écrit :



Quelque soit les chiffres avancés, cette information a un intérêt principal : elle montre bien que les fabricants savent qu’ils ont un gros souci de fiabilité.



Selon les chiffres de WD, il ne faut pas compter avoir un DD fiable au dessus de 900Go. C’est le chiffre de 2014 … ce qui montre bien que les disques de 1Go, quand ils ont ete introduit a la vente il y a deja plusieurs annees, étaient loin d’etre fiable sur le long-terme.



Il faut pas s’etonner que le HD “consumer” rende vie apres 1 an d’utilisation.







euhhhh…….



les disques de 1 To sont parfaitement fiables et ce depuis pas mal de temps….



ce qu’il faut, c’est ne pas se précipiter sur les nouveautés. par exemple aujourd’hui je n’irais pas acheter un DD de 4 ou 5 Go, je passe mon tour.

mais d’ici 1 an ou 2, je serais certainement client.


votre avatar

20 Mo par heure de lecture ou écriture… <img data-src=" />

votre avatar

oulala

entre Go et le To le coeur balance

<img data-src=" />


votre avatar







JoePike a écrit :



Je suis sceptique

“spécial data center ? en 7200rpm ?

et avec du 5to on met combien de temps pour reconstruire une grappe de RAID5 par exemple ?

<img data-src=" />







sylvere a écrit :



une dizaine d’heure







jeje07 a écrit :



ca doit être à peu près ca.

pour mon RAID 5 de 2 To, ca prend environ 5 heures.









instinctkiller a écrit :



Avec des disques de telle capacité, en RAID5 ouais faudrait 10/12h, en général sur les SAN (NetApp, Dell PowerVault), 30% des ressources de la baie sont utilisées pour le rebuild.

Sur du RAID6 faut compter 30h Minimum.





Le mieux est de passer sur du ZFS, qui gère la redondance lui-même et ce très bien, et qui fait encore mieux, qui vérifie l’intégrité des données via un checksum de tous les blocs. Un ami qui a monté sa société d’hébergement n’utilise presque plus que ça (alors qu’avant c’était du RAID matériel le plus souvent) ; il m’a aussi précisé que le système de checksum des données a déjà servi (les volumes des filesystem étant devenus tellement énormes devant le taux d’erreur).







instinctkiller a écrit :



Sinon, pour du stockage de masse, à voir pour passer sur du Disk Pool, au moins les temps de rebuild sont super corrects (3 4h maxi).

Et la tolérance aux doubles pannes encore meilleure.





De quoi s’agit-il ?


votre avatar







JoePike a écrit :



oulala

entre Go et le To le coeur balance

<img data-src=" />





Bah on a 30’ pour éditer <img data-src=" />

T’façon pour me répondre, c’est retour SAV. Un disque neuf!

Remboursement, pis c’est tout. Merci Toshiba, j’aurais eu un disque de 3To, et rien pu écrire dessus <img data-src=" />


votre avatar

J’ai plus l’impression que dans le monde du stockage “grande capacité”, le RAID disparait progressivement… Trop couteux, trop complexe.

Les disques se montent en JBOD et on multiplie la redondance sur les serveurs.








votre avatar

Ce serais pas mal pour les NAS mais a quel prix

votre avatar

Boah, pour les NAS grands publics, c’est pas des supers configs dessus et le reste du matériel limitera le débit du HDD.



Faudra voir, on doit remplacer les DD de certains SAN l’année prochaine ^^

votre avatar







Avygeil a écrit :



Boah, pour les NAS grands publics, c’est pas des supers configs dessus et le reste du matériel limitera le débit du HDD.



Faudra voir, on doit remplacer les DD de certains SAN l’année prochaine ^^





Pour un SAN d’archivage, ok. Mais pas pour un SAN de données actives et/ou de vms…


Toshiba MC04 : des disques durs de 5 To endurants pour les serveurs

Fermer