Connexion
Abonnez-vous

Pluie d’annonces chez AMD : Ryzen PRO 7000, EPYC 4e génération avec 128C/256T ou 3D V-Cache, Instinct MI300X

C’est possible d’avoir du Genoa-X mélangé avec Bergamo ?

Pluie d’annonces chez AMD : Ryzen PRO 7000, EPYC 4e génération avec 128C/256T ou 3D V-Cache, Instinct MI300X

Le 16 juin 2023 à 13h33

En l’espace de quelques jours, AMD a multiplié les annonces, aussi bien sur le mobile que les ordinateurs de bureau et les datacenters. Il est principalement question de processeurs – Ryzen PRO 7000 et EPYC de 4e génération – mais la partie GPU n’est pas oubliée avec le MI300X pour l’inférence des LLM, le dernier sujet à la mode dans le monde de l’IA. Tour d’horizon des annonces. 

AMD Ryzen PRO Série 7040 avec Moteur d'IA dédié

On commence directement avec les processeurs mobiles AMD Ryzen PRO Série 7040. Ils sont gravés en 4 nm et exploitent tous l’architecture Zen 4, disposent d’une partie graphique intégrée RDNA 3 et d’un « moteur Ryzen AI »… enfin sauf pour le Ryzen 5 PRO 7540U.

Les cinq autres références – du Ryzen 5 PRO 7640U au Ryzen 9 PRO 7940HS – profitent en effet toutes du « premier moteur d'IA au monde intégré dans un processeur x86 ». AMD précise ce qu’il entend par là, car Intel aussi propose des « fonctions IA » dans ces CPU : « "Moteur d'IA dédié" est défini comme un moteur d'IA qui n'a aucune fonction autre que le traitement des modèles d'inférence d'IA et qui fait partie de la matrice de processeur x86 ».

Les fréquences de base des processeurs oscillent entre 3,2 et 4,3 GHz, avec un Boost entre 4,9 et 5,2 GHz. Le TPD des modèles « HS » est de 45 watts, contre 28 watts pour les « U ».

AMD Ryzen PRO Série

AMD glisse les résultats de quelques benchmarks maison. Le HP EliteBook 845 G10 avec un Ryzen 7 PRO 7840U 8C/16T serait 17 % plus performant qu’un Dell Latitude 5440 avec un Core i7-1365U 10C/12T (2P + 8E) et 18 % au-dessus d’un MacBook Pro avec un M2 Pro 10C sur le test CPU Passmark 11. L‘autonomie serait en hausse de 15 % avec une batterie de 65 Wh pour HP, contre 69.6 Wh pour Apple.

Trois Ryzen PRO Série 7000 sur socket AM5 

Dans le même temps, AMD annonce trois nouveaux processeurs Ryzen PRO Série 7000, là encore basés sur Zen 4 mais RDNA 2 pour la partie graphique. Ils exploitent le socket AM5, proposent de 6 à 12 cœurs (et le double de threads) avec une fréquence de base de 3,7 à 3,8 GHz et un boost entre 5,1 et 5,4 GHz suivant les modèles, alors que les Ryzen Pro 5000 étaient tous en dessous de 5 GHz en Boost. 

La société affirme que son Ryzen 5 PRO 7645 serait jusqu’à 48 % performant dans PCMark 10 par rapport à un Intel Core i5-13400 (10C/16T, dont 6P et 4E), mais sans donner le détail des scores. 

AMD Ryzen PRO Série

Des EPYC de 4e génération chez Amazon EC2 et Oracle OCI Compute

Dans le monde du datacenter, AMD a fait plusieurs annonces cette semaine. Il est tout d’abord question de nouvelles instances Amazon Elastic Compute Cloud (EC2) M7a avec des processeurs EPYC de 4e génération (nom de code Genoa), qui font donc suite aux M6a, R6a et C6a, toutes avec un CPU EPYC de 3e génération (Milan).

Selon Amazon, ces instances M7a – en préversion pour le moment – proposent « des performances jusqu'à 50 % supérieures à celles des instances M6a », elles prennent en charge AVX3-512, VNNI et BFloat16, et exploitent de la DDR5.  

Oracle aussi prévoit de sauter le pas sur ses instances OCI Compute E5. Le lancement est prévu pour le second semestre de l’année. 

Pour rappel, les processeurs EPYC 9004 (4e génération) ont été annoncés en novembre dernier et proposent jusqu’à 96 cœurs Zen 4, contre 64 cœurs sur les EPYC 7003 (3e génération). Du moins, c’était le cas jusqu’à maintenant puisque, comme nous allons le voir, la gamme s’est élargie. 

Bergamo est là : EPYC 9004 avec jusqu’à 128 cœurs par processeur

C’était attendu, AMD vient d’annoncer trois nouveaux processeurs dans la série 9004 : les EPYC 9754, 9754S et 9734. Ils ont respectivement 128C/256T, 128C/128T et 112C/224T. Attention, pas d’architecture Zen 4 ici, mais des cœurs allégés Zen 4c (Bergamo) afin d’arriver à une telle densité. 

Zen 4 et 4c sont tous deux gravés en 5 nm chez TSMC, mais un cœur Zen 4 occupe 3,84 mm² avec le cache L2 contre 2,48 mm² pour un cœur Zen 4c dans les mêmes conditions, soit une baisse de 35 %. Le socket reste le même dans les deux cas, comme l’ISA (instruction set architecture) permettant ainsi d’installer un ou l’autre des processeurs sur sa carte mère. 

Zen 4cZen 4c

On passe d’une architecture avec 12 CCD (Core Complex Die) disposant chacun de 8 cœurs (96 au total, le compte est bon) sur Zen 4, à 8 CCD avec 16 cœurs (128 au total) sur Zen 4c. Par contre, la quantité de cache est en baisse sur Bergamo. Si on a toujours 1 Mo de L2 par cœur et 2x 16 Mo par CCD, le nouvel arrangement interne donne 256 Mo maximum sur Zen 4c, contre 384 Mo pour Zen 4. 

AMD présente son architecture Zen 4 comme optimisée pour la « performance par cœur » tandis que Zen 4c cible la « performance par watt » et s’adresse principalement aux fournisseurs de service cloud (CSP). Ils peuvent ainsi proposer à leurs clients plus de cœurs. On attend par contre toujours des détails techniques sur l’ensemble des changements apportés à Zen 4c.

Genoa-X : des EPYC de 4e génération avec 3D V-Cache (jusqu’à 1 152 Mo en L3)

Toujours dans la gamme des EPYC de 4e génération, passons aux 9x84X avec la technologie 3D V-Cache, anciennement connus sous le nom de code Genoa-X. Dévoilée il y a deux ans, cette technique consiste à ajouter de la mémoire cache directement par-dessus le die d'une puce, d’où le nom de « 3D ».

Trois processeurs sont annoncés : les EPYC 9684X, 9384X et 9184X, avec respectivement 96, 32 et 16 cœurs (le double de theads). Notez la présence d’un « X » à la fin de la référence pour les différencier des autres et rappeler Genoa-X. Comme nous venons de l’indiquer, les EPYC de 4e génération sont limités à 384 Mo de cache L3 (avec l’architecture Zen 4), alors que là, on grimpe à 768 et même 1 152 Mo pour le 9684X. 

Microsoft en profite pour indiquer que des instances Azure HBv4 et HX arrivent, avec des processeurs EPYC 9x84X. Selon l’hébergeur, les performances sont multipliées par 1,6 à 5,7 dans les tests par rapport aux HBv3 (EPYC de 3e génération). Un billet technique a été mis en ligne par ici.

AMD annonce enfin que « la gamme complète de processeurs AMD EPYC de 4e génération est disponible aujourd'hui et qu’elle est compatible avec les fonctionnalités et les sockets des systèmes existants basés sur les processeurs AMD EPYC série 9004 », permettant ainsi de se mettre à jour si besoin avec plus de cœur (Bergamo) ou de cache L3 (Genoa-X). 

Il ne reste donc que les EPYC de 4e génération Siena (Telco/5G) pour que la famille soit au complet par rapport aux roadmaps. Il sera ensuite temps de passer à la 5e génération, connue sous le nom de code « Turin ». 

Epyc 4e genListe des EPYC de 4e génération : 97x4 pour Bergamo, 9x84X pour Genoa-X

Intelligence artificielle : voilà les Instinct MI300X et MI300A

La société présente également son accélérateur Instinct MI300X, qu’elle vante comme « l’accélérateur le plus avancé au monde pour l’IA générative », rien de moins.

Il exploite jusqu’à 192 Go de mémoire HBM3 avec une bande passante maximum de 5,2 To/s, ce qui en fait un GPU particulièrement adapté à l’inférence des LLM (grands modèles de langage) selon AMD. Le MI300X est basé sur l’architecture AMD CDNA 3, contre CDNA2 pour la génération précédente MI2x0. Pour rappel, le GPU Hopper H100 de NVIDIA peut gérer jusqu’à 96 Go de mémoire HBM3, avec une bande passante de 4 To/s.

Le MI300X est une version GPU « seulement » de l’APU (Accelerated Processing Unit) MI300A. Ce dernier dispose en effet d’une partie CPU (24 cœurs Zen 4) au sein d’une même puce, avec un total de 128 Go de HBM3. On attend maintenant des détails sur les performances du GPU.

Les premiers échantillons du nouveau GPU MI300X sont attendus pour le troisième trimestre de l’année, tandis que ceux de l’APU MI300A sont dès à présent disponibles. 

AMD en profite pour lancer sa plateforme « AMD Instinct », qui regroupe huit accélérateurs MI300X au sein d’une même machine, avec 1,5 To de mémoire HBM3.

MI300XMI300X

Commentaires (4)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Je serai curieux de connaître la consommation entre un 16c et un 128c pleine charge.

votre avatar

En gros le MI300A c’est une version HPC des SoC des consoles de salon Sony et Microsoft.
CPU+GPU+Mémoire sur la même puce ça y ressemble beaucoup beaucoup.
Plus le SoC des consoles Sony d’ailleurs puisque unifier semble-t-il.



AMD s’est fait la main sur console et exploite les résultats sur serveur tout comme nViidia au final.



Y’as des fabricants de CM qui ont annoncés dans la foulée des mises à jour de leurs cartes mères “serveurs” ?
Vu que c’est généralement le cas.

votre avatar

the_Grim_Reaper a dit:


En gros le MI300A c’est une version HPC des SoC des consoles de salon Sony et Microsoft. CPU+GPU+Mémoire sur la même puce ça y ressemble beaucoup beaucoup. Plus le SoC des consoles


Sur les APU pour consoles il n’y a pas d’HBM dessus et pas d’interposer non plus.

votre avatar

Au vu du doublement des coeurs à chaque génération en plus du gain en performance pure j’imagine que la taille du datacenter de ma boîte va diminuer dans les prochaines années.



Bien sûr il y aura toujours de nouveaux usages donc de nouvelles VM à installer, mais de mon côté j’ai le sentiment que l’on va se retrouver avec peu de super gros hyperviseurs qui gérerons des centaines de VM.

Pluie d’annonces chez AMD : Ryzen PRO 7000, EPYC 4e génération avec 128C/256T ou 3D V-Cache, Instinct MI300X

  • AMD Ryzen PRO Série 7040 avec Moteur d'IA dédié

  • Trois Ryzen PRO Série 7000 sur socket AM5 

  • Des EPYC de 4e génération chez Amazon EC2 et Oracle OCI Compute

  • Bergamo est là : EPYC 9004 avec jusqu’à 128 cœurs par processeur

  • Genoa-X : des EPYC de 4e génération avec 3D V-Cache (jusqu’à 1 152 Mo en L3)

  • Intelligence artificielle : voilà les Instinct MI300X et MI300A

Fermer