Samsung annonce un module de DDR5 exploitant Compute Express Link (CXL)

Samsung annonce un module de DDR5 exploitant Compute Express Link (CXL)

Le retour des cartouches NES

Avatar de l'auteur

David Legrand

Publié dansHardware

11/05/2021
10
Samsung annonce un module de DDR5 exploitant Compute Express Link (CXL)

L'initiative CXL commence à se concrétiser. Les partenaires multiplient les annonces et Samsung dévoile un premier produit qui devrait en intéresser plus d'un : un module de DDR5 sous la forme d'un boîtier enfichable.

Alors que la DDR5 et le PCIe 5.0 devraient se généraliser à partir de la fin de l'année, il y a un autre standard qui devrait être exploité de manière croissante, notamment dans les datacenters : Compute Express Link (CXL).

Il s'agit d'une solution d'interconnexion basée sur PCIe 5.0 mais optimisée pour faciliter les accès directs à basse latence aux données en mémoire, leur cohérence, etc. Annoncée il y a deux ans par Intel et plusieurs partenaires, elle s'est depuis accordée avec un autre consortium proposant une solution similaire : Gen-Z. De quoi permettre sa montée en puissance, ARM prévoyant par exemple d'utiliser CXL au sein de ses prochaines générations

Aujourd'hui, c'est au tour d'un autre membre fondateur de Gen-Z d'annoncer un produit CXL : Samsung. La société dévoile ainsi un module de DDR5, qui ne prend pas la forme de barrettes à utiliser dans des emplacements DIMM, mais d'un boîtier pouvant être connecté directement à une interface CXL. AMD et Intel sont partenaires de l'initiative.

Samsung CXL Memory ExpanderSamsung CXL Memory Expander

Samsung dit avoir « intégré différents contrôleurs et solutions logicielles comme le mappage mémoire, la conversion d'interface et la gestion d'erreurs, permettant aux CPU ou GPU de considérer et d'utiliser la mémoire CXL comme de la mémoire système ». L'idée est ainsi de ne plus être dépendant du nombre de canaux mémoire gérés par le processeur et de pouvoir ajouter une quantité plus importante de mémoire au sein d'un système, comme Intel le fait à sa manière avec ses modules Optane PMem à mi-chemin entre mémoire et SSD, mais au format barrette DIMM. 

Samsung n'a pour le moment livré aucune donnée technique concrète sur ce produit : latence, débit ou même quantité de mémoire présente au sein de chaque module. Le constructeur promet néanmoins qu'il permettra « d'atteindre le niveau du To », ce qui nécessite actuellement 16 modules de 64 Go sur un système classique.

On devrait en savoir plus lorsqu'il commencera à arriver chez des clients et à être mis sur le marché.

10
Avatar de l'auteur

Écrit par David Legrand

Tiens, en parlant de ça :

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

Des mini datacenters… Ouais une baie quoi ?

19:03HardwareInternet 1
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

0/1

17:53IA et algorithmesSociété numérique 16

Plainte contre l’alternative paiement ou publicité comportementale de Meta

Schrems vs Meta, saison 3

17:31DroitIA et algorithmes 13

Sommaire de l'article

Introduction

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardwareInternet 1
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IA et algorithmesSociété numérique 16

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA et algorithmes 13
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitInternet 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société numérique 4
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitInternet 2

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

0

Le poing Dev – round 6

Next 138

Produits dangereux sur le web : nouvelles obligations en vue pour les marketplaces

Droit 6
consommation de l'ia

Usages et frugalité : quelle place pour les IA dans la société de demain ?

IA et algorithmes 12

La NASA établit une liaison laser à 16 millions de km, les essais continuent

Sciences et espace 17
Concept de CPU

Semi-conducteurs : un important accord entre l’Europe et l’Inde

Hardware 6

#LeBrief : PS5 Slim en France, Valeo porte plainte contre NVIDIA, pertes publicitaires X/Twitter

0
Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

651e édition des LIDD : Liens Intelligents Du Dimanche

Internet 30
Bannière de Flock avec des bomes sur un fond rouge

#Flock, le grand remplacement par les intelligences artificielles

Flock 34
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #9 : LeBrief 2.0, ligne édito, dossiers de fond

Next 63
Pilule rouge et bleue avec des messages codés

Encapsulation de clés et chiffrement d’enveloppes

Sécurité 31
Empreinte digital sur une capteur

Empreintes digitales : les capteurs Windows Hello loin d’être exemplaires

Sécurité 20

#LeBrief : succès du test d’Ariane 6, réparer plutôt que remplacer, Broadcom finalise le rachat de VMware

0

Hébergeurs, éditeurs, espaces de conversation ? La difficile régulation des réseaux sociaux

Réseaux sociauxSociété numérique 23
Puces en silicium

Silicium : un matériau indispensable et omniprésent, mais critique

HardwareSciences et espace 25
Panneau solaire bi-face Sunology Play

Panneaux solaires en autoconsommation : on décortique le kit Play de Sunology

Hardware 26
The eyes and ears of the army, Fort Dix, N.J.

Un think tank propose d’autoriser les opérations de « hack back »

Sécurité 12

#LeBrief : Ariane 6 sur le banc de test, arrestation algorithmique, entraînement d’IA par des mineurs

0
Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (10)


SomeDudeOnTheInternet Abonné
Il y a 3 ans

Très intéressant, hâte de voir ce que ça donnera niveau performances :)


Magyar Abonné
Il y a 3 ans

PCIe 5 ? Intel vient tout juste de sortir du PCIe 4 sur leurs dernier proc et on passe déjà au 5 ?


David_L Abonné
Il y a 3 ans

Comme dit, le PCIe 5.0 est prévu pour les prochaines plateformes depuis longtemps : Alder Lake et Sapphire Rapids (Intel), Zen 4 (AMD), les prochaines Neoverse pour ARM. Ici, ce sont des produits de datacenter, où ces interconnexions sont en avance de phase par rapport au grand public parce que le besoin y est important et donc la migration rapide. Et le PCI Express est désormais sur un rythme d’une versions tous les deux ans, avec le PCIe 6.0 déjà en préparation pour rappel ;)


ZoZo Abonné
Il y a 3 ans

Pour préciser ce que dit David, Alder Lake-S devrait débarquer avant la fin de l’année, donc le PCI-E 5.0 va se concrétiser assez rapidement côté Intel, effectivement moins de 9 mois après l’arrivée du PCI-E 4.0 sur leurs plateformes.


David_L Abonné
Il y a 3 ans

Un peu plus si tu comptes Tiger Lake ;)


Magyar Abonné
Il y a 3 ans

David_L a dit:


Comme dit, le PCIe 5.0 est prévu pour les prochaines plateformes depuis longtemps : Alder Lake et Sapphire Rapids (Intel), Zen 4 (AMD), les prochaines Neoverse pour ARM. Ici, ce sont des produits de datacenter, où ces interconnexions sont en avance de phase par rapport au grand public parce que le besoin y est important et donc la migration rapide. Et le PCI Express est désormais sur un rythme d’une versions tous les deux ans, avec le PCIe 6.0 déjà en préparation pour rappel ;)




Ok, j’avais loupé l’info. Mais assez surpris vu le temps qu’on est resté sur la v3


xillibit Abonné
Il y a 3 ans

AMD ça fait presque deux ans qu’ils ont intégrés le PCI-e 4.0 dans leurs plateformes


xillibit Abonné
Il y a 3 ans

(reply:57082:ZoZo) Le PCI-e 5.0 sur desktop, pour des cartes réseau 40 gbit/s ?



David_L Abonné
Il y a 3 ans

Ne jamais oublier une chose qui est à mon sens l’intérêts principal des nouvelles normes sur les plateformes grand public : on fait le même débit avec deux fois moins de lignes.



Comme le nombre de lignes PCIe a tendance à stagner, le passage à une nouvelle version de la norme permet de doubler la capacité à nombre de lignes constant, et donc les différentes possibilités. Par exemple une solution x4 + x4 + x4 + x4 en PCIe 5.0 sera comme du x16 + x16 + x16 + x16 en PCIe 3.0.


N.Master Abonné
Il y a 3 ans

C’est amusant comme on revient aux architectures où tout se partage le même bus.
Au début de l’informatique ça se passait comme ça, le processeur accédait au même bus pour à peu près tout. Et finalement la carte mère c’était surtout des connecteurs et des pistes.
Puis on a créé des bus séparés et spécialisés car le bus unique devenait un goulot d’étranglement.



Revenir à un bus unique ultra rapide sera peut être un grand retour à la souplesse originelle. On ne sera peut être plus limités par la carte mère si on veut rajouter de la RAM au delà du nombre de slots DIMM