DDR5 CXL, CAMM et M(C)R-DIMM : le futur de la mémoire s’expose au Computex
À mon serveur, je lui mettrais bien une cartouche
Le 07 juin 2023 à 09h34
6 min
Sciences et espace
Sciences
La mémoire de nos ordinateurs est en train d’évoluer. Le but est d’en mettre toujours plus et d’augmenter la densité, en allant toujours plus vite. Il y a ainsi la M(C)R-DIMM et des modules DDR5 au format E3.S en PCIe pour les serveurs, ainsi que le format CAMM pour des ordinateurs portables toujours plus fins, avec une grosse quantité de mémoire.
La mémoire vive est un élément indispensable aux ordinateurs. Sur les machines pour le grand public et les serveurs, il s’agit généralement de modules que l’on vient enficher dans des emplacements dédiés sur la carte mère, mais elle peut aussi être directement soudée sur le PCB (printed circuit board, le circuit imprimé).
DIMM, vous avez les bases ?
Sur les ordinateurs de bureau, on retrouve habituellement des emplacements DIMM (Dual Inline Memory Module), alors que les ordinateurs portables ont droit à des SO-DIMM (SO pour Small Outline ou un format réduit). Le nombre de connecteurs et la position des encoches (détrompeurs) sur le module et les barrettes de mémoire dépend de plusieurs facteurs, notamment de la génération de la « DDR » (ou Double Data Rate). La dernière en date est la DDR5, mais la suite se prépare déjà.
Et ça se complique un peu…
Voilà pour la théorie, dans la pratique ça se complique un peu… comme toujours. Sur les serveurs par exemple, on retrouve des modules UDIMM, RDIMM et LRDIMM.
Dans le cas d’UDIMM ou unbuffered DIMM, « les signaux d'adresse et de contrôle peuvent atteindre directement la puce DRAM sur le DIMM du serveur sans passer par un tampon et sans aucun ajustement de timing », explique FS.com.
Le RDIMM ou Registered DIMM, « fixe un registre entre le CPU et la puce DRAM pour la transmission des données, ce qui […] améliore l'efficacité de la transmission […] Les RDIMMs sont plus faciles à augmenter en capacité et en fréquence que les UDIMMs ». Enfin, les LRDIMM ou Load Reduced DIMM « n'utilisent pas de registres, mais [les données] sont simplement mises en mémoire tampon ».
MCR-DIMM et MR-DIMM, même combat : doubler les « ranks »
Pour les serveurs justement, la suite se prépare avec les MCR-DIMM (Multiplexer Combined Ranks DIMM) et MR-DIMM (Multi-Ranked Buffered DIMM).
La MCR-DIMM est développée par Intel, Renesas et SK Hynix. Ce dernier annonçait fin 2022 rien de moins que « le module DRAM serveur le plus rapide au monde », justement avec de la DDR5 au format MCR-DIMM. Le fabricant revendique « un débit de données minimum de 8 Gbit/s, au moins 80 % plus rapide que les 4,8 Gbit/s des modules DDR5 existants ».
Comme son nom l’indique, ces modules utilisent deux « ranks » en même temps, permettant ainsi « le transfert de 128 octets de données au CPU en une seule fois, contre généralement 64 octets avec un module DRAM classique ».
Une image résume bien le fonctionnement :
Avec le MR-DIMM, le principe est exactement le même. Utiliser deux « ranks » en même temps afin de doubler les débits. Robert Hormuth, vice-president chez AMD partageait il y a quelques semaines des informations sur ces modules. Il est ainsi prévu d’avoir de la MR-DIMM à 8,8 Gb/s en DDR5, puis de passer à 12,8 Gb/s pour la seconde génération et de grimper jusqu’à 17,6 Gb/s pour la troisième génération.
Toujours selon AMD, des travaux de normalisation sont en cours au JEDEC (Joint Electron Device Engineering Council), avec AMD, Google et Microsoft dans son sillage. Intel serait aussi sur le coup – avec sa plateforme Granite Rapids – selon Adata qui exposait un module de DDR5 MR-DIMM au Computex. Des capacités de 16 à 192 Go sont prévues chez Adata.
Encore de la DDR5 CXL au format E3.S
Le fabricant exposait aussi un module mémoire CXL 1.1 (Compute Express Link) avec une capacité pouvant atteindre 512 Go (DDR5) et une interface PCIe 5.0 x4, le tout au format E3.S.
Le principe de CXL est de permettre au système hôte d’utiliser cette mémoire comme si c’était celle directement gérée par le CPU. L’avantage est de pouvoir ajouter de la mémoire sur une machine sur laquelle tous les emplacements DIMM sont déjà occupés.
Rien de neuf ici puisque Samsung a déjà présenté, il y a deux ans, son Memory Expander : une « cartouche » de DDR5 au format E3.S, qui profite donc d'un lien PCIe et du protocole Compute eXpress Link (CXL), exactement comme Adata dans le cas présent.
Une « cartouche » DDR5 CXL de chez Samsung
CAMM : de la mémoire pour des portables encore plus fins
Enfin, Adata présentait un module CAMM ou Compression Attached Memory Module. Le but de ce format est de permettre de réduire encore l’épaisseur des ordinateurs portables. Initialement développé par Dell, le JEDEC a ensuite récupéré le bébé et s’occupe désormais d’en faire un standard utilisable par l’ensemble des constructeurs. Le CAMM pourrait ainsi évoluer en fonction des différents retours.
« Alors que les stations de travail doivent pouvoir embarquer une importante quantité de mémoire, l’épaisseur et l’empilement des modules SO-DIMM traditionnels empêchait d’affiner le châssis. Le nouveau est lui 57 % plus fin que la SO-DIMM », expliquait Dell l’année dernière.
Comme on peut le voir sur l’image ci-dessous, l’épaisseur du CAMM est bien moins importante que lorsqu’on superpose deux modules SO-DIMM, mais la superficie fait par contre un grand bond en avant.
Tom Schnell, à la fois membre du comité et ingénieur chez le fabricant d’ordinateurs, expliquait il y a quelques mois à PC World que le JEDEC avait voté à l’unanimité la version 0.5 de la norme. La finalisation est attendue pour la seconde moitié de cette année.
Le JEDEC propose des améliorations pour la CAMM
Depuis, le JEDEC a avancé sur le sujet et annoncé en mars deux changements. Première nouveauté : on peut « empiler » des modules CAMM. Le connecteur servant à relier le module à la carte mère est alors « coupé » en deux dans le sens de la longueur. « Le CAMM d'origine prend en charge deux canaux de mémoire DDR5 sur un même connecteur, tandis que la CAMM empilable utilise un canal de mémoire DDR5 par connecteur ». La seconde nouveauté concerne la prise en charge de la LPDDR5 (Low Power DDR5) avec un format et un brochage dédiés.
Au Computex, Adata présentait un module de 64 Go à 6,4 Gb/s. Dell n’a pour sa part pas attendu la normalisation du JEDEC et utilise déjà de la mémoire CAMM dans certains de ses ordinateurs portables, notamment les Precision 7670 et 7770. Attention par contre au prix : plus de 1 200 euros pour 64 Go de DDR5 et 2 500 euros pour 128 Go toujours en DDR5.
DDR5 CXL, CAMM et M(C)R-DIMM : le futur de la mémoire s’expose au Computex
-
DIMM, vous avez les bases ?
-
Et ça se complique un peu…
-
MCR-DIMM et MR-DIMM, même combat : doubler les « ranks »
-
Encore de la DDR5 CXL au format E3.S
-
CAMM : de la mémoire pour des portables encore plus fins
-
Le JEDEC propose des améliorations pour la CAMM
Commentaires (10)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 07/06/2023 à 09h54
Mais du coup, niveau épaisseur ça donne quoi ? On reviens à l’encombrement du SODIMM empilé ?
Le 07/06/2023 à 10h07
Même interrogation, si on reviens à l’épaisseurs d’avant, aucun intérêt.
Le 07/06/2023 à 12h01
Quand on empile 2 modules CAMM on gagne en surface mais on perd en épaisseur et on a qu’un seul canal DDR5 par connecteur, alors qu’en utilisant un seul module CAMM on gagne en épaisseur mais on perd en surface mais on deux canaux DDR5 dans le connecteur
Voir : https://www.jedec.org/news/pressreleases/jedec-expands-camm-standardization-include-two-key-memory-technologies
Le 07/06/2023 à 10h14
Je relance de 3 ! Même passage qui m’a fait tiquer
Le 07/06/2023 à 11h11
Oui mais avec plus de surface
Plus sérieusement sur la photo on a du 8 d’épaisseur pour 5110 de surface contre 3,4 d’épaisseur pour 9720 de surface.
Si on double on ce retrouve avec du 8 par 10220 contre du 6,8 par 9720.( Visiblement le dégagement thermique n’est pas un problème sur le schéma. )
Au final d’un côté on y gagne en épaisseur pour un module simple, ce qui était le but, et de l’autre en épaisseur et surface pour un module double ce qui est pratique en bonus.
Le 07/06/2023 à 10h23
oui étrange mais l’idée derrière ne semble plus la faible épaisseur mais la grande quantité de mémoire disponible.
Le 07/06/2023 à 11h51
Merci pour l’article !
On utilise au boulot de la mémoire qdr2+.
Ca rentre dans quelle catégorie de l’article ?
Merci !
Le 07/06/2023 à 13h16
C’est toujours moins cher que chez Apple…
Le 07/06/2023 à 15h12
Il ne faut pas oublier le plus gros avantage des modules CAMM. Contrairement aux emplacements SO-DIMM pour lesquels on pouvait acheter une configuration de départ puis ajouter des barrettes par la suite si nécessaire, là, il faudra tout racheter. Ça, c’est un sacré avantage, pour les fabricants…
Personnellement, je préfère l’extensibilité, même si ça nécessite un peu plus d’encombrement. Surtout sur une configuration type station de travail où le format m’importe peu.
Le 13/06/2023 à 05h42
Bah justement non : https://www.dell.com/fr-fr/shop/dell-camm-m%C3%A9moire-mise-niveau-128go-4800mhz/apd/370-bbhn/m%C3%A9moire
Le CAMM permet de concilier la faible épaisseur sans souder les puces de RAM à la CM. Si le CAMM double épaisseur est normé on aura probablement la situation d’avant : un module livré et un emplacement libre pour l’évolution. Et comme avant il faudra est vigilant à l’achat au nombre de modules pré-installé ou disponible.