Deux nouveaux SSD PCIe 4.0 chez Corsair : les MP600 Mini et MP600 CORE XT

Deux nouveaux SSD PCIe 4.0 chez Corsair : les MP600 Mini et MP600 CORE XT

Deux nouveaux SSD PCIe 4.0 chez Corsair : les MP600 Mini et MP600 CORE XT

Deux nouveaux SSD PCIe 4.0 chez Corsair : les MP600 Mini et MP600 CORE XT - Plus de deux ans après avoir annoncé ces SSD MP600 Pro XT, Corsair décline sa gamme avec les MP600 Mini, eux aussi en PCIe 4.0 x4.

Comme leur nom l’indique, ils sont compacts avec un format M.2 2230 (30 mm de long), avec des puces de 3D NAND TLC et une interface NVMe 1.4. La capacité est de 1 To, avec des débits maximums de 4,8 Go/s en lecture et en écriture. Il est proposé à 124,99 euros.

Passons à la seconde annonce : les MP600 CORE XT, avec des puces de 3D NAND QLC cette fois-ci.  Des versions de 1, 2 et 4 To sont proposés, avec des débits pouvant atteindre 5 Go/s en lecture et 4,4 Go/s en écriture. Ils sont au format M.2 2280 (80 mm de long). Comptez 69,99 euros pour 1 To, 134,99 euros pour 2 To et 324,99 euros pour 4 To. Enfin, l’endurance est respectivement de 250, 450 et 900 To en écriture. 

Le fabricant précise enfin que la garantie est de cinq ans pour l’ensemble de ses SSD. 

Commentaires (19)


Niveau endurance, on est donc sur les QLC à un ratio TBW/Capacité entre 225 et 250. C’est juste minable!
A quoi cela sert de monter en capacité si c’est pour à l’usage devoir ne pas en utiliser le dixième et compter sur un wear-leveling efficace (et sans bug) pour assurer un minimum de fiabilité.


Attention au format, 2230 je viens de regarder ma CM y’a pas les trous de vis (ça commence à 2242 sur les deux slots), sur les CM plus grandes les petits 2230 sont souvent réservés au wifi/BT (si je dis pas de conneries en fente B: donc USB + seulement 2 lignes PCI-e)



Je ne comprends pas trop ta remarque, comme tous les SSD il ne faut pas le remplir ras la gueule pour que les algos anti-usure puissent faire leur taf. (note, c’était vrai dans une moindre mesure pour les disques-durs, sinon bonjour la fragmentation)



Dans quel scénario t’aurais besoin d’écrire 900Po de données ? ça fait écrire 250Go par jour (10 go/h) pendant 10ans non-stop !



yl a dit:


Niveau endurance, on est donc sur les QLC à un ratio TBW/Capacité entre 225 et 250. C’est juste minable! A quoi cela sert de monter en capacité si c’est pour à l’usage devoir ne pas en utiliser le dixième et compter sur un wear-leveling efficace (et sans bug) pour assurer un minimum de fiabilité.




Pour du stockage peu modifié auquel on a besoin d’un accès rapide, c’est intéressant. Sinon pour les autres utilisations, en effet ce n’est pas vers ce produit qu’il faut se tourner.




fofo9012 a dit:


Dans quel scénario t’aurais besoin d’écrire 900Po de données ? ça fait écrire 250Go par jour (10 go/h) pendant 10ans non-stop !




Fais gaffe, tu confonds Po et To (c’est 900To avant usure pour le 4To)… Il y a un rapport de 1000 entre les 2 :transpi:


Yes je confirme, même une grosse carte-mère avec 4 slots NVM-E ne gère pas le 2230 : https://www.asus.com/fr/motherboards-components/motherboards/tuf-gaming/tuf-gaming-x670e-plus/techspec/



à réserver à certains PC portables donc


Ca doit aussi se monter sur la Steamdeck et machines du même genre toujours à cours d’espace vu la taille des jeux actuels



Patch a dit:


Fais gaffe, tu confonds Po et To (c’est 900To avant usure pour le 4To)… Il y a un rapport de 1000 entre les 2 :transpi:




Ah oui oops, par contre mon calcul est bon j’ai écris Po mais j’ai bien calculé avec les To :



900 To sur an => (/10) => 90 To/an => (/365.25) => 246.4 Go/j => (/24) => 10,3 Go/h => (/3600) => 2.85Mo/s => (x8) => 22,81Mbits non-stop pendant 10ans



Sur de la vidéo surveillance, ça fait 7,6 flux UHD @60Hz AV1 en parallèle non-stop durant 10ans


S’ils pouvaient atterrir dans une carte d’extension concurrente pour Xbox Series… Pour moins cher que celles de Seagate qui n’a pas bougé ses prix indécents depuis 3 siècles ; je dis oui et oui.
Pour info ces cartes d’extension format CFexpress sont en réalité équipée d’un SSD 2230.



fofo9012 a dit:


Ah oui oops, par contre mon calcul est bon j’ai écris Po mais j’ai bien calculé avec les To :



900 To sur an => (/10) => 90 To/an => (/365.25) => 246.4 Go/j => (/24) => 10,3 Go/h => (/3600) => 2.85Mo/s => (x8) => 22,81Mbits non-stop pendant 10ans



Sur de la vidéo surveillance, ça fait 7,6 flux UHD @60Hz AV1 en parallèle non-stop durant 10ans




C’est surtout un calcul théorique, et qui prend l’hypothèse que tout le SSD est usé uniformément. Ce qui est quand même un cas d’usage relativement exceptionnel (sauf si on fait de l’enregistrement vidéo comme tu l’indiques en exemple ou truc équivalent niveau débit régulier) :chinois:


le wearliving est justement là pour faire comme ça nop ? homogénéiser la dégradation.


C’est aussi un enregistrement circulaire sur n jours (cad: durée de conservation de 30 jours).



the_Grim_Reaper a dit:


le wearliving est justement là pour faire comme ça nop ? homogénéiser la dégradation.




Quand il y a des données qui ne bougent pas, je ne suis pas sûr que le SSD s’amuse à les déplacer.


Bah a priori certains le font quand même justement.
Je me souvient plus de la source de l’époque, et depuis ça a du changer.


Hooo c’est tout petit ! On plante ça dans un port PCI Express et ça pousse ?



fofo9012 a dit:


Je ne comprends pas trop ta remarque, comme tous les SSD il ne faut pas le remplir ras la gueule pour que les algos anti-usure puissent faire leur taf.




Ici, au phénomène de write amplification près (lié à la gestion bas niveau des flash par le controleur intégré au SSD et au fait qu’elles s’effacent par secteur complet avant écriture, ne serait-ce que d’un byte modifié), on a des mémoires flash qui supportent dans les 200 cycles d’effacement.



Pour mémoire, sur des SLC d’il y a 15 ans on était à 100k cycles d’erase, puis on est tombé à 5k cycles progressivement avec les MLC… et là on est à quelques centaines.



Moi je n’appelle plus cela un stockage fiable, surtout que la durée de rétention des données d’une flash baisse avec le nb de cycles d’effacements pour généralement tomber vers une année quand on a atteint le max… et en dessous si cela continue de fonctionner au delà (ce qui est souvent le cas, avant que les cycles d’effacement de plus en plus long ne tombent en timeout après avoir fait baisser les perfs globales).



Donc même pour du stockage, ce truc est de la merde en bâtons.



Patch a dit:


Pour du stockage peu modifié auquel on a besoin d’un accès rapide, c’est intéressant.




Sans doute… mais même pour cela je préfère un HDD classique qui n’a pas de pb peu prévisibles de durée de rétention, même en usage données assez statiques. Surtout pour un média de stockage pas forcément alimenté en permanence (extractible, veille…) avec le contrôleur qui ne peut alors gérer convenablement des vérifications ECC et au besoin ré-écritures/rafraîchissement en continu en tâche de fond (et qui usera aussi un SSD peu utilisé en écriture, certes bcp moins vite).



Patch a dit:


Quand il y a des données qui ne bougent pas, je ne suis pas sûr que le SSD s’amuse à les déplacer.




Bah pour moi si, les données sont écrites rapidement en mode SLC : un seul des 4 bits (16 valeurs) du QLC est utilisé, quand le SSD est en idle il réorganise son stockage : les 4 cellules fraichement écrites sont lues, et la valeur QLC est calculée et écrite sur une cellule peu accédée, l’ancien état de cette cellule est remis sur l’une des 4 cellules d’origine, et les 3 autres sont marquées libres.



Bon en vrai c’est pas au niveau cellule que ça se passe mais le raisonnement est identique avec des unités d’allocation plus grosse.



yl a dit:


Ici, au phénomène de write amplification près (lié à la gestion bas niveau des flash par le controleur intégré au SSD et au fait qu’elles s’effacent par secteur complet avant écriture, ne serait-ce que d’un byte modifié), on a des mémoires flash qui supportent dans les 200 cycles d’effacement.



Pour mémoire, sur des SLC d’il y a 15 ans on était à 100k cycles d’erase, puis on est tombé à 5k cycles progressivement avec les MLC… et là on est à quelques centaines.




Le phénomène de write amplification est pris en compte dans les chiffres annoncés, c’est totalement transparent pour l’utilisateur et ce qui explique en partie la baisse de cycles annoncés. Le seul cas ou c’est vraiment problématique, c’est si tu t’amusais à faire des Secure Erase de toute la surface tous les 4 matins, là effectivement au bout de 1000 ton SSD sera bon pour la poubelle. (et encore, ce n’est pas certain, le Secure Erase se fait probablement avec un voltage moins intensif pour la cellule qu’une écriture QLC)



Si les SLC tenaient 100k cycles, c’est qu’ils gaspillaient pas mal de place : on stockait 8x moins d’infos par cellule, tu aurais 1To pour 325€ en SLC ! (vs 70€ en QLC)



Patch a dit:


Quand il y a des données qui ne bougent pas, je ne suis pas sûr que le SSD s’amuse à les déplacer.




Un secteur de mémoire flash neuf (cad jamais effacé) a une durée de rétention des données typiquement au max du datasheet (10 ans). Une fois le nb de cycles max spécifié atteint, on tombe typiquement à 1 an. Entre les deux, cela baisse et plus vite au début.
Pour y pallier, le FW d’un SSD va relire régulièrement et déplacer les données dans un autre secteur dès qu’il commence à avoir des erreurs (encore) corrigibles.
Côté OS on ne se rends compte de rien, la flash translation layer masque cela et au delà on présente une machine à lire/écrire des LBA qui achève d’abstraire tout le fonctionnement interne.
Un SSD devient avec la multiplication des bits/cell (en fait les comparateurs ont juste plusieurs niveaux, donc plus sensibles à la décharge naturelle avec le temps) et les finesses de gravures de plus en plus inadapté au stockage de long terme. Pour cela revenir au HDD c’est plus sûr!



the_Grim_Reaper a dit:


Bah a priori certains le font quand même justement. Je me souvient plus de la source de l’époque, et depuis ça a du changer.




En fait ils le font car c’est inévitable et même de plus en plus avec les densités qui augmentent!


Fermer