HBM4, GDDR7, CXL 3.x… : la roadmap Micron jusqu’en 2028

HBM4, GDDR7, CXL 3.x… : la roadmap Micron jusqu’en 2028

Des Giga et des bits de partout

Avatar de l'auteur

Sébastien Gavois

Publié dansHardware

15/11/2023
6
HBM4, GDDR7, CXL 3.x… : la roadmap Micron jusqu’en 2028

Micron dévoile les grandes lignes de son catalogue produit sur la mémoire (sous différentes formes) jusqu'en 2028. Il est question de la HBM4 qui arrivera en 2025, de la GDRR7 à partir de l'année prochaine, de la LPCAMM2 pour la basse consommation et enfin des modules M(C)RDIMM et CXL pour les serveurs avec de gros besoins.  

Au cours de l’année, les principaux fabricants de mémoire se sont succédé pour annoncer leurs puces HBM3E (E pour Extended), plus rapides que la HBM3. SK hynix ouvrait le bal en mai, suivi de près par Micron dès le mois de juillet. En août, NVIDIA intégrait cette mémoire dans son GH200 (Grace Hopper Superchip), avec des performances en hausse de 50 % sur la mémoire. Plus récemment, Samsung a, lui aussi, sauté le pas de la HBM3E. 

Le JEDEC ne semble toujours pas avoir officialisé cette génération de mémoire, mais ce n’est pas spécialement surprenant. Le consortium avait déjà attendu de nombreux mois après les annonces des constructeurs pour présenter officiellement la HBM2E. Comme avec le Wi-Fi et d’autres normes, les fabricants n’attendent pas pour avancer de leur côté. 

roadmap micron 2028
Crédits : Tom’s hardware

Plus de densité en HBM3E et HBM(4)E à partir de 2025

Pour en revenir à Micron, les puces actuelles empilent jusqu’à 8 couches pour une capacité de 24 Go et une bande passante de 1,2 To/s. L’année prochaine, une nouvelle évolution des HBM3E est prévue avec 12 couches et donc logiquement 36 Go de capacité, toujours à 1,2 To/s.

Il faudra attendre 2025 pour que la HBM4 débarque. Des puces avec 12 couches (36 Go) seront disponibles, mais aussi avec 16 couches et donc jusqu’à 48 Go. Le fabricant annonce plus de 1,5 To/s de bande passante. La HBME4E est prévue pour 2027 avec une plus forte densité – 48 Go sur 12 couches (au lieu de 36 Go en HBM4) et jusqu’à 64 Go sur 16 couches. Le débit devrait dépasser les 2 To/s. 

GDDR7 et LPCCAMM2 (Low Power)

Du côté de la mémoire pour carte graphique, la GDDR6x actuelle – bande passante de 24 Gb/s par broche, 96 Go/s au total – devrait rester jusqu’en 2024. Ensuite la GDDR7 arrivera, avec un passage à 32 Gb/s par broche pour un total de 128 Go/s. Début 2026, Micron grimpera à respectivement 36 Gb/s et 144 Go/s. La GDDR7 reste en place jusqu’au moins 2028 et pas un mot n’est dit sur la GDDR8. 

Passons maintenant à la mémoire LP pour Low Power DDR, la mémoire faible consommation. Après la LPDDR5X qui est déjà en place depuis des années, viendra la LPCCAMM2 à partir de la moitié de l’année prochaine. On restera sur un débit de 8 533 Mb/s, mais la capacité grimpera jusqu’à 128 Go. À partir de 2026, le débit passera à 9 600 Mb/s et la capacité à 192 Go et plus si affinité. Selon Micron, il ne faut pas attendre de changement sur la consommation qui resterait au même niveau que pour la LPDDR5X. 

Mémoire pour serveur : RDIMM, M(C)R-DIMM, CXL

Du côté de la mémoire pour les serveurs, Micron passera sa RDIMM (Registered DIMM) de 96 à 128 Go (avec des puces de 32 Gb et une bande passante de 8 Gb/s) et MCR-DIMM (jusqu’à 256 Go et 8,8 Gb/s) durant l’année 2024. La MCR-DIMM (Multiplexer Combined Ranks DIMM) est pour rappel développée par Intel, Renesas et SK Hynix.

Fin 2022, SK hynix justement avait déjà annoncé des modules de ce type, avec un débit de 8 Gb/s. Chez Micron, la MR-DIMM prendra ensuite la relève de la MCR-DIMM dans le courant de 2025, avec 256 Go de capacité avec une bande passante de 12,8 Gb/s dans le courant de l'année 2025. Pour plus de détails sur la M(C)R-DIMM, on vous renvoie vers une actualité du début d’année où nous en parlions

Terminons avec les modules CXL (Compute Express Link) permettant d'ajouter de la mémoire même si tous les emplacements sont déjà occupés. Annoncés en aout 2023, les modules CXL 2.0 de 128 et 256 Go devraient rester au catalogue de Micron jusqu'à fin 2025/début 2026. Ce sera ensuite au tour des CXL 3.x de prendre le relai avec un débit doublé (72 Go/s) et des capacités de 256 Go et plus. 

6
Avatar de l'auteur

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

C’est comme CVSS 5.0 mais en moins bien

18:17 Sécu 1
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Géotechnopolitique

16:37 Web 19
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

Il faudrait déjà généraliser la fibre

16:03 HardWeb 20

Sommaire de l'article

Introduction

Plus de densité en HBM3E et HBM(4)E à partir de 2025

GDDR7 et LPCCAMM2 (Low Power)

Mémoire pour serveur : RDIMM, M(C)R-DIMM, CXL

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 1
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 19
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 20
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 7
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 7

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 7
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardWeb 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IASociété 62

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA 33
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitWeb 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société 5
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitWeb 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

Le poing Dev – round 6

Next 148

Produits dangereux sur le web : nouvelles obligations en vue pour les marketplaces

Droit 9
consommation de l'ia

Usages et frugalité : quelle place pour les IA dans la société de demain ?

IA 12

La NASA établit une liaison laser à 16 millions de km, les essais continuent

Science 17
Concept de CPU

Semi-conducteurs : un important accord entre l’Europe et l’Inde

Hard 7

#LeBrief : PS5 Slim en France, Valeo porte plainte contre NVIDIA, pertes publicitaires X/Twitter

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

651e édition des LIDD : Liens Intelligents Du Dimanche

Web 30
Bannière de Flock avec des bomes sur un fond rouge

#Flock, le grand remplacement par les intelligences artificielles

Flock 34
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #9 : LeBrief 2.0, ligne édito, dossiers de fond

Next 65
Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (6)


xillibit Abonné
Il y a 2 semaines

Du côté de la mémoire pour carte graphique, la GDDR6x actuelle



Et la GDDR6 au-dessus de 20 Gbps, Micron prévoit rien ? Samsung prévoyait en 22 Gbps ou 24 Gbps


ashlol Abonné
Il y a 2 semaines

La GDDR6 standardisée par le Jedec est limitée à 16gbps les GDDR6 plus rapide sont les GDDR6x chez micron et GDDR6w chez samsung mais reste appelée GDDR6 par samsung.
https://en.wikipedia.org/wiki/GDDR6_SDRAM
micron produit de la GDDR6x à 19, 21 et 24Gbps
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x/part-catalog
et samsung produit de la GDDR6w à 20Gbps et est en train de sortir celle à 24Gbps elle est encore en sampling. La 18Gpbs viens d’être arrêtée (EOL).
https://semiconductor.samsung.com/dram/gddr/gddr6/


xillibit Abonné
Il y a 2 semaines

ashlol

La GDDR6 standardisée par le Jedec est limitée à 16gbps les GDDR6 plus rapide sont les GDDR6x chez micron et GDDR6w chez samsung mais reste appelée GDDR6 par samsung. https://en.wikipedia.org/wiki/GDDR6_SDRAM micron produit de la GDDR6x à 19, 21 et 24Gbps https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x/part-catalog et samsung produit de la GDDR6w à 20Gbps et est en train de sortir celle à 24Gbps elle est encore en sampling. La 18Gpbs viens d’être arrêtée (EOL). https://semiconductor.samsung.com/dram/gddr/gddr6/

C’est pas dans le JEDEC mais Samsung sait faire de la GDDR6 jusqu’à 24 Gbps : https://semiconductor.samsung.com/dram/gddr/gddr6/. Je n’avais pas qu’ils avaient sortis une version au-dessus de 20 Gbps



Sur les cartes graphiques (milieu/haut de gamme) Radeon d’AMD ils mettent de la GDDR6 à 20 Gbps



La GDDR6X n’est pas un standard du JEDEC, c’est propriétaire à Nvidia


-foo- Abonné
Il y a 2 semaines

Est-ce que ça fonctionne correctement les modules CXL ?


croustx
Il y a 2 semaines

Super interessant, merci.



On a aussi eut droit à la mise en obsolescence de pas mal de PN Micron ces derniers temps…


Erwan123 Abonné
Il y a 2 semaines














Feature Enabled
Feature name
Additional info
Yes