Connexion
Abonnez-vous

PlotRipper : Sabrent dévoile ses SSD pour Chia Network, jusqu’à 54 000 To d’endurance

Et 18 euros du Go ?

PlotRipper : Sabrent dévoile ses SSD pour Chia Network, jusqu'à 54 000 To d'endurance

Le 31 mai 2021 à 13h12

Ces derniers mois, une cryptomonnaie exploitant le stockage pour son activité a explosé : Chia Network. De quoi créer une pénurie au niveau mondial et inquiéter les hébergeurs. De son côté Sabrent a décidé d'accompagner la nouvelle avec des SSD à l'endurance record.

Il y a quelques jours, OVHcloud et Scaleway annonçaient prendre des mesures contre les clients exploitant leur infrastructure pour le « plotting » lié à Chia Network, une blockchain reposant sur le Proof of Space and Time (PoST). 

De manière plus concrète, il s'agit d'une étape où les utilisateurs doivent effectuer de longues et multiples écritures, de préférences sur SSD pour aller vite. Les données générées doivent ensuite être stockées et mises à disposition du réseau. On parle alors de « farming ». Une activité rémunérée en cryptomonnaie (chia), que certains espèrent lucrative.

Problème, du fait de la grosse activité en écriture, les SSD TLC/QLC grand public voient leur durée de vie réduire très rapidement. Les développeurs conseillent de plutôt utiliser des modèles pour serveurs, disposant d'une meilleure endurance, ou des disques durs, plus longs mais plus durables. Sabrent a eu une autre idée.

PlottRipper : l'endurance avant tout

La société indique qu'elle profitera du Computex pour dévoiler ses PlotRipper. Il s'agit d'une gamme de SSD spécialement prévue pour le plotting Chia Network, via la technologie LifeXtention. Cette dernière n'est pas détaillée, mais promet d'atteindre une endurance jusqu'à 18x supérieure à des SSD classiques. Les débits ne sont pas évoqués.

Ainsi, plutôt que 3 000 To écrits (TBW) pour un SSD TLC classique de 2 To, Sabrent promet 10 000 TBW pour son modèle classique et 27 000 ou 54 000 TBW pour ses PlottRiper Pro de 1 To et 2 To. Il n'est pas précisé si ceux-ci utiliseront de la Flash Nand SLC ou MLC pour améliorer leur endurance... ce qui aurait un effet direct sur les prix.

La société promet néanmoins des modèles parmi les plus rentables sur marché. Cela restera à démontrer.

Sabrent PlottRipper

 

Commentaires (15)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Déjà que j’ai pas encore de CG, commencez pas à scalper les SSD :censored:

votre avatar

J’ai vraiment du mal avec le fait que les DD puissent être plus durables.
Je pense surtout que caund on plotte, on devrait mettre un max de cache RAM - même pour l’écriture sur un SSD. Hors le cache disque en écriture est désactivé la plupart du temps, et le cache en lecture je ne suis même pas sûr que Windows en mette un sur les SSD par exemple.



Bref, un cache RAM en écriture devrait limiter la casse déjà.

votre avatar

Il faut vraiment que les gars des cryptos arrêtent les conneries… ils se comportent comme des sauterelles avec les ressources techniques.
Y’a une autre crypto qui s’est lancée récemment et qui mise sur la saturation de la bande passante ! C’est complètement débile.

votre avatar

Sous Linux (et pas seulement, Windows aussi même si ça a l’air moins bien géré historiquement), la RAM disponible sert de cache en écriture, et on peut régler le comportement (pourcentage de la mémoire utilisé pour la rétention, durée de rétention, pourcentage à atteindre pour commencer à écrire, etc).



Mais vu qu’ici il s’agit d’écrire de grandes quantités de données sur disque (on parle de 100 Go et nettement plus), il faudrait de grosses quantités de RAM, donc à voir côté budget et même avant cela pour la simple faisabilité technique (taille max d’une barrette de RAM et nombre d’emplacements sur la carte mère).

votre avatar

Dépasser 2To de RAM est déjà possible sur des serveurs, Intel ou AMD. (Mais ca pique, la segmentation commerciale imposant de prendre les gros CPUs…)



Une solution moins chère serait de créer un RAM disk sur PCIExpress: un FPGA et c’est parti !



A l’image de ce qui se faisait il y a quelques années:
https://www.newegg.com/gigabyte-gc-ramdisk-others/p/N82E16815168001

votre avatar

OlivierJ a dit:


Sous Linux (et pas seulement, Windows aussi même si ça a l’air moins bien géré historiquement), la RAM disponible sert de cache en écriture, et on peut régler le comportement (pourcentage de la mémoire utilisé pour la rétention, durée de rétention, pourcentage à atteindre pour commencer à écrire, etc).


Effectivement, le cache en écriture est actif même sous Windows 10!



Mais il est vachement limité: chez moi il ne monte pas en cas d’écritures aléatoires: on voit qu’il monte puis il s’arrête et là ça ralenti. En plus, dans les compteurs, le nombre d’écriture physique = nombre d’écritures logiques.



Il faudrait un cache un peu moins stupide, qui aggrège les écritures ensemble, les réorganise.
Un peu comme les cartes contrôleurs RAID haut de gamme, qui réarrangent le cache pour ne pas écrire deux fois au même endroit, écrire tout en même temps, se caler sur les tailles d’échange des pistes pour déplacer au minimum les têtes au lieu de réécrire plusieurs fois les mêmes endroits parce que 3 octets on changé, le tout sauvegardé par pile en cas de coupure de courant…



Bref, un carte comme celle qu’on avait sur les alpha :) (ou dans les SAN j’imagine, mais là c’est moins précis dans la doc)

votre avatar

(reply:57440:Tophe) Intel a la gamme Optane pour ça, de la flash avec les avantages de la RAM en terme de vitesse/latence. Par contre je sais pas si c’est compatible avec tout les CPU Intel ou reservé au plus gros. Ils en font au format DIMM pour les serveurs.


votre avatar

(quote:57441:brice.wernet)
Effectivement, le cache en écriture est actif même sous Windows 10!


Oui et même avant la version 10.




Mais il est vachement limité: chez moi il ne monte pas en cas d’écritures aléatoires: on voit qu’il monte puis il s’arrête et là ça ralenti.


Je ne sais pas dans quelle mesure ce cache est réglable dans son fonctionnement, mais pas beaucoup il me semble. Il faut dire que Windows est à la base un OS “desktop” et pas fait pour gérer des applications de type serveur.




Il faudrait un cache un peu moins stupide, qui aggrège les écritures ensemble, les réorganise.


C’est ce que font depuis quasiment le début certains I/O schedulers (ordonnanceurs d’E/S) de Linux, d’ailleurs tu peux choisir celui que tu utilises, au boot je crois, et il y a régulièrement des tests comparatifs. Avec les SSD qui ont pris une place importante, les ordonnanceurs orientés disques magnétiques, qui cherchaient à optimiser en fonction de la géométrie des disques, sont délaissés au profit d’ordonnanceurs qui ne font rien (pas besoin avec un SSD et ses temps d’accès quasi nuls).




Un peu comme les cartes contrôleurs RAID haut de gamme, qui réarrangent le cache pour ne pas écrire deux fois au même endroit, écrire tout en même temps, se caler sur les tailles d’échange des pistes pour déplacer au minimum les têtes au lieu de réécrire plusieurs fois les mêmes endroits


C’est ce que tentent de faire au mieux les ordonnanceurs dont je parle juste avant :-) .

votre avatar

Tophe a dit:


Une solution moins chère serait de créer un RAM disk sur PCIExpress: un FPGA et c’est parti !


Le souci c’est le prix de la RAM quand même.
Et effectivement certains serveurs peuvent monter haut, mais on n’est plus du tout dans le grand public ni même marché geek haut de gamme. C’est ça que je rappelais aussi.




A l’image de ce qui se faisait il y a quelques années: https://www.newegg.com/gigabyte-gc-ramdisk-others/p/N82E16815168001


DDR2 et 150 MB/s, c’est vieux :-) .
Et je ne suis pas sûr que ça se fasse encore ou soit intéressant, vu les performances actuelles de SSD, dont avec le NVME et PCI-Express.

votre avatar

Soraphirot a dit:



Optane… qui bouffe des emplacements DIMMs et ne sont compatibles que sur 1 ou 2 slots, à un tarif dément pour une capacité pas énorme au final…


Le probleme est surtout sur la durée de vie de ces SSDs. Un RAM disk est parfait pour ce type d’utilisation, avant le stockage “froid” sur un HDD.
On n’a pas le tarif de ces SSDs, mais avoir une (ou plusieurs) carte d’extension pour de la RAM fait sens, non ?



Cependant, rien ne me fera investir dans ce type de bouzin si c’est lié à de la crypto monnaie ….

votre avatar

OlivierJ a dit:


Il faut dire que Windows est à la base un OS “desktop” et pas fait pour gérer des applications de type serveur.


Windows 2000, option “partage de fichier”, petite case à cocher “optimiser”: 256Mo réservés pour l’OS et les applis, tout le reste pour le cache :)
Il fallait savoir où décocher cette fichue option pour récupérer sa RAM :)




. Avec les SSD qui ont pris une place importante, les ordonnanceurs orientés disques magnétiques, qui cherchaient à optimiser en fonction de la géométrie des disques, sont délaissés au profit d’ordonnanceurs qui ne font rien (pas besoin avec un SSD et ses temps d’accès quasi nuls).


Sauf que si on ordonnance les écritures, on évite d’écrire dix fois les mêmes cellules (il me semble qu’on ne peut pas écrire moins de 128Ko sur un SSD, mais nos OS sont en blocs de 4k.




C’est ce que tentent de faire au mieux les ordonnanceurs dont je parle juste avant :-) .


Les cartes contrôleurs je ne sais pas, mais les SAN, c’est souvent du I5 avec un Linux bien paramétré par IBM - donc oui, j’imagine qu’en chinant, on doit pouvoir trouver tout cela sous Linux.
Encore faut-il comprendre les phénomènes physiques qui sont induits par des lectures/écritures et les solutions qui existent déjà depuis des années pour les mettre en oeuvre …

votre avatar

(quote:57518:brice.wernet)
Windows 2000, option “partage de fichier”, petite case à cocher “optimiser”: 256Mo réservés pour l’OS et les applis, tout le reste pour le cache :) Il fallait savoir où décocher cette fichue option pour récupérer sa RAM :)


Oui mais ça reste un cache sur lequel on n’a aucun contrôle particulier, contrairement à Linux (et Unix et les BSD sauf erreur de ma part).




Sauf que si on ordonnance les écritures, on évite d’écrire dix fois les mêmes cellules (il me semble qu’on ne peut pas écrire moins de 128Ko sur un SSD, mais nos OS sont en blocs de 4k.


Il faudrait faire une petite simulation mais de toutes façons à partir du moment où les écritures ne sont pas linéaires, effectivement les SSD écrivent à coup de ~128 k, et je ne pense pas que les ordonnanceurs qui peuvent regrouper des écritures voisines servent à quelque chose (pas aux performances en tous cas, ce qui est déjà un signe).




Les cartes contrôleurs je ne sais pas, mais les SAN, c’est souvent du I5 avec un Linux bien paramétré par IBM


Effectivement les baies SAN un peu évoluées (IBM ou autre, EMC étant une des marques les plus connues) bénéficient d’un travail sur le sujet. J’ai pu constater vers 2014 en production qu’une de ces baies EMC un peu onéreuses, équipées de plein de disques magnétiques, tenait une belle charge en terme d’accès concurrents.

votre avatar

OlivierJ a dit:


Il faudrait faire une petite simulation mais de toutes façons à partir du moment où les écritures ne sont pas linéaires, effectivement les SSD écrivent à coup de ~128 k, et je ne pense pas que les ordonnanceurs qui peuvent regrouper des écritures voisines servent à quelque chose (pas aux performances en tous cas, ce qui est déjà un signe).


Deux cas le font:




  • Matériellement, sur un SSD avec un cache mémoire important, il ne purge pas le cache tant qu’on ne lui demande pas expressément. Dès l’or, l’écriture est en attente en cache SSD de présence d’écriture voisine. Au bout de quelques secondes, elle devient purgée de toutes façons.

  • Logiciellement, sur un système de fichiers à allocation lors de l’écriture, on n’écrit pas l’ancien bloc: on en alloue un nouveau. Du coup, on n’use pas la cellule qui contient la donnée mais une autre. Par ce biais, on peut obtenir des données plus fragmentées, avec des blocs systèmes de fichiers plus petits que les blocs minimaux d’écriture du SSD, sans lui péter son usure pour autant. C’est le cas pour ReFS, et je crois que c’est le cas aussi pour Ext4, et peut être Brtfs. En général, les systèmes de fichiers journalisés sont ainsi.



Les baies de disques à instantanés, comme les Dell SC, fonctionnent comme ça. Ca garanti des performances de fou, mais elle a un processde réallocation qui ressemble à de la défragmentation, mais entre plusieurs type de SSD (sinon on les flingue trèèèès vite), voir des HDDs (stockage moins cher avec cache SSD)

votre avatar

patos a dit:


Dès l’or, l’écriture


Joli ce “dès l’or” :D




est en attente en cache SSD de présence d’écriture voisine. Au bout de quelques secondes, elle devient purgée de toutes façons.


Oui on peut supposer que le SSD fait son maximum pour éviter d’écrire trop tôt, en utilisant un peu de RAM ; cela dit je ne suis pas sûr que beaucoup de modèles sont concernés, car il faut que le SSD intègre un condensateur assez important pour garantir l’écriture en cas de coupure de courant (pas forcément un gros condo mais il faut aussi que le firmware gère ça). Après, ça ne sert à rien au SSD d’avoir beaucoup de RAM, il suffit d’en avoir assez pour quelques blocs de 128 k ; dont pour les raisons que tu as mentionnées de fonctionnement de filesystem.




  • Logiciellement, sur un système de fichiers à allocation lors de l’écriture, on n’écrit pas l’ancien bloc: on en alloue un nouveau. Du coup, on n’use pas la cellule qui contient la donnée mais une autre. Par ce biais, on peut obtenir des données plus fragmentées, avec des blocs systèmes de fichiers plus petits que les blocs minimaux d’écriture du SSD, sans lui péter son usure pour autant.



Ben vu qu’on écrit les données de toutes façons (que ce soit en place ou sur un nouveau bloc alloué, effectivement ce 2e cas avec les FS journalisés), on use tout autant le SSD me semble.

votre avatar

Chui fatigué, désolé ^^



Et non tu ne l’utilise pas autant. Si tu prends un fichier de 5mo dans lequel tu écris quelques kilos, ce serait le bloc complet de 128k qui serait lu, modifié, écrit. Avec la journalisation, tu vas juste dire “mon fichier va de là à là, puis passe ici, puis repasse par là”. Le système de fichiers le gère très bien et ça ne pose aucun souci sur un SSD ^^ (contrairement aux disques durs qui n’aiment pas cette fragmentation).
Si tu modifies plusieurs fichiers pour moins de 128K, tu n’useras qu’un seul bloc dans le second cas, contre plusieurs pour le premier cas.

PlotRipper : Sabrent dévoile ses SSD pour Chia Network, jusqu’à 54 000 To d’endurance

  • PlottRipper : l'endurance avant tout

Fermer