Connexion
Abonnez-vous

HBM4, GDDR7, CXL 3.x… : la roadmap Micron jusqu’en 2028

Des Giga et des bits de partout

HBM4, GDDR7, CXL 3.x… : la roadmap Micron jusqu’en 2028

Le 15 novembre 2023 à 09h16

Micron dévoile les grandes lignes de son catalogue produit sur la mémoire (sous différentes formes) jusqu'en 2028. Il est question de la HBM4 qui arrivera en 2025, de la GDRR7 à partir de l'année prochaine, de la LPCAMM2 pour la basse consommation et enfin des modules M(C)RDIMM et CXL pour les serveurs avec de gros besoins.  

Au cours de l’année, les principaux fabricants de mémoire se sont succédé pour annoncer leurs puces HBM3E (E pour Extended), plus rapides que la HBM3. SK hynix ouvrait le bal en mai, suivi de près par Micron dès le mois de juillet. En août, NVIDIA intégrait cette mémoire dans son GH200 (Grace Hopper Superchip), avec des performances en hausse de 50 % sur la mémoire. Plus récemment, Samsung a, lui aussi, sauté le pas de la HBM3E. 

Le JEDEC ne semble toujours pas avoir officialisé cette génération de mémoire, mais ce n’est pas spécialement surprenant. Le consortium avait déjà attendu de nombreux mois après les annonces des constructeurs pour présenter officiellement la HBM2E. Comme avec le Wi-Fi et d’autres normes, les fabricants n’attendent pas pour avancer de leur côté. 

roadmap micron 2028
Crédits : Tom’s hardware

Plus de densité en HBM3E et HBM(4)E à partir de 2025

Pour en revenir à Micron, les puces actuelles empilent jusqu’à 8 couches pour une capacité de 24 Go et une bande passante de 1,2 To/s. L’année prochaine, une nouvelle évolution des HBM3E est prévue avec 12 couches et donc logiquement 36 Go de capacité, toujours à 1,2 To/s.

Il faudra attendre 2025 pour que la HBM4 débarque. Des puces avec 12 couches (36 Go) seront disponibles, mais aussi avec 16 couches et donc jusqu’à 48 Go. Le fabricant annonce plus de 1,5 To/s de bande passante. La HBME4E est prévue pour 2027 avec une plus forte densité – 48 Go sur 12 couches (au lieu de 36 Go en HBM4) et jusqu’à 64 Go sur 16 couches. Le débit devrait dépasser les 2 To/s. 

GDDR7 et LPCCAMM2 (Low Power)

Du côté de la mémoire pour carte graphique, la GDDR6x actuelle – bande passante de 24 Gb/s par broche, 96 Go/s au total – devrait rester jusqu’en 2024. Ensuite la GDDR7 arrivera, avec un passage à 32 Gb/s par broche pour un total de 128 Go/s. Début 2026, Micron grimpera à respectivement 36 Gb/s et 144 Go/s. La GDDR7 reste en place jusqu’au moins 2028 et pas un mot n’est dit sur la GDDR8. 

Passons maintenant à la mémoire LP pour Low Power DDR, la mémoire faible consommation. Après la LPDDR5X qui est déjà en place depuis des années, viendra la LPCCAMM2 à partir de la moitié de l’année prochaine. On restera sur un débit de 8 533 Mb/s, mais la capacité grimpera jusqu’à 128 Go. À partir de 2026, le débit passera à 9 600 Mb/s et la capacité à 192 Go et plus si affinité. Selon Micron, il ne faut pas attendre de changement sur la consommation qui resterait au même niveau que pour la LPDDR5X. 

Mémoire pour serveur : RDIMM, M(C)R-DIMM, CXL

Du côté de la mémoire pour les serveurs, Micron passera sa RDIMM (Registered DIMM) de 96 à 128 Go (avec des puces de 32 Gb et une bande passante de 8 Gb/s) et MCR-DIMM (jusqu’à 256 Go et 8,8 Gb/s) durant l’année 2024. La MCR-DIMM (Multiplexer Combined Ranks DIMM) est pour rappel développée par Intel, Renesas et SK Hynix.

Fin 2022, SK hynix justement avait déjà annoncé des modules de ce type, avec un débit de 8 Gb/s. Chez Micron, la MR-DIMM prendra ensuite la relève de la MCR-DIMM dans le courant de 2025, avec 256 Go de capacité avec une bande passante de 12,8 Gb/s dans le courant de l'année 2025. Pour plus de détails sur la M(C)R-DIMM, on vous renvoie vers une actualité du début d’année où nous en parlions

Terminons avec les modules CXL (Compute Express Link) permettant d'ajouter de la mémoire même si tous les emplacements sont déjà occupés. Annoncés en aout 2023, les modules CXL 2.0 de 128 et 256 Go devraient rester au catalogue de Micron jusqu'à fin 2025/début 2026. Ce sera ensuite au tour des CXL 3.x de prendre le relai avec un débit doublé (72 Go/s) et des capacités de 256 Go et plus. 

Le 15 novembre 2023 à 09h16

Commentaires (6)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Du côté de la mémoire pour carte graphique, la GDDR6x actuelle



Et la GDDR6 au-dessus de 20 Gbps, Micron prévoit rien ? Samsung prévoyait en 22 Gbps ou 24 Gbps

votre avatar

La GDDR6 standardisée par le Jedec est limitée à 16gbps les GDDR6 plus rapide sont les GDDR6x chez micron et GDDR6w chez samsung mais reste appelée GDDR6 par samsung.
https://en.wikipedia.org/wiki/GDDR6_SDRAM
micron produit de la GDDR6x à 19, 21 et 24Gbps
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x/part-catalog
et samsung produit de la GDDR6w à 20Gbps et est en train de sortir celle à 24Gbps elle est encore en sampling. La 18Gpbs viens d’être arrêtée (EOL).
https://semiconductor.samsung.com/dram/gddr/gddr6/

votre avatar

C’est pas dans le JEDEC mais Samsung sait faire de la GDDR6 jusqu’à 24 Gbps : https://semiconductor.samsung.com/dram/gddr/gddr6/. Je n’avais pas qu’ils avaient sortis une version au-dessus de 20 Gbps



Sur les cartes graphiques (milieu/haut de gamme) Radeon d’AMD ils mettent de la GDDR6 à 20 Gbps



La GDDR6X n’est pas un standard du JEDEC, c’est propriétaire à Nvidia

votre avatar

Est-ce que ça fonctionne correctement les modules CXL ?

votre avatar

Super interessant, merci.



On a aussi eut droit à la mise en obsolescence de pas mal de PN Micron ces derniers temps…

votre avatar














FeatureEnabled
Feature name
Additional info
Yes

HBM4, GDDR7, CXL 3.x… : la roadmap Micron jusqu’en 2028

  • Plus de densité en HBM3E et HBM(4)E à partir de 2025

  • GDDR7 et LPCCAMM2 (Low Power)

  • Mémoire pour serveur : RDIMM, M(C)R-DIMM, CXL

Fermer