Connexion
Abonnez-vous

NVIDIA dévoile sa DGX Station A100 à quatre GPU et une A100 (Ampere) avec 80 Go de mémoire

Vous avez beaucoup de données ?

NVIDIA dévoile sa DGX Station A100 à quatre GPU et une A100 (Ampere) avec 80 Go de mémoire

Le 16 novembre 2020 à 14h26

Alors qu'AMD dévoile son Instinct MI100, NVIDIA choisit d'officialiser une carte que certains n'évoquaient qu'en coulisse : une A100 avec pas moins de 80 Go de mémoire, le double du modèle initial. Elle intègrera une station de travail maison dès l'année prochaine.

Lorsque NVIDIA a mis sur le marché sa première carte exploitant un GPU de la génération Ampere, c'était un modèle pour serveur, nommé A100. Elle a depuis été déclinée en différentes versions, pour station de travail (PCIe) ou plus accessible (A40), mais on attendait surtout l'arrivée d'un modèle plus haut de gamme encore.

Mémoire doublée pour l'A100

En effet, il se murmurait que le constructeur irait bien plus loin que les 40 Go de mémoire intégré à ce modèle. C'est le cas aujourd'hui avec une déclinaison à 80 Go de HBM2e. La bande passante annoncée dépasse les 2 To/s contre 1,6 To/s pour le modèle précédent. De quoi permettre de traiter rapidement de très gros jeux de données.

Cela peut avoir un autre intérêt, l'A100 pouvant être découpé en sept portions de GPU virtualisées, chacune avec de la mémoire lui étant dédiée. Cette nouvelle carte permet de doubler la quantité accessible à chaque portion. Le reste des caractéristiques est inchangé, tout comme le TDP (400 watts).

DGX Station A100 : jusqu'à 4 GPU Ampere

On retrouvera bien entendu cette puce dans de nouvelles versions des serveurs NVIDIA DGX A100 et la station de travail DGX Station A100 à quatre GPU (soit 320 Go de mémoire au maximum) annoncée pour l'occasion.

Ses caractéristiques techniques mentionnent un processeur AMD EPYC 7742 (64C/128T, de 2,25 à 3,4 GHz), 512 Go de DDR4, deux ports réseau à 10 Gb/s (RJ45), un à 1 Gb/s pour la gestion distance (BMC), 7,68 To de stockage NVMe (U.2), quatre sorties vidéo Mini DisplayPort (4 Go de mémoire dédiée). Le tout est livré sous Ubuntu.

Atos, Dell, Fujitsu, Gigabyte, HPE, Inspur, Lenovo, Quanta et Supermicro sont annoncés comme partenaires. Ils proposeront leurs propres modèles dès la première moitié de 2021. Aucun tarif n'a été précisé.

Côté réseau, des cartes à 400 Gb/s InfiniBand ont été annoncées par NVIDIA Networking (ex-Melllanox).

Commentaires (12)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

But does it run Crysis ?

votre avatar

Ampere A100 = pas de pipeline 3D ;)

votre avatar

Bah Linus a bien réussi à le faire tourner en rendu software sur un Threadripper 3990X, on peut bien imaginer qu’un furieux trop fortuné essaye aussi avec ça. :mad2:

votre avatar

Pour les trucs débiles, il y a toujours du monde :D

votre avatar

Vous avez beaucoup de données dollars ?
:cap:

votre avatar

Ca doit marcher du feu de Dieu ça sous BOINC (folding@home ; einstein@home ; asteroids@home)

votre avatar

Je vois pas le prix. C’est superflue pour Nvidia ?

votre avatar

ça doit envoyer les flops… et dans 15 ans on aura plus puissant dans nos smartphones

votre avatar

Ce sont des cartes d’intégration, rarement vendues à part donc on a pas le prix (même si on demande à chaque fois comme indiqué dans l’article ;)). Mais bon, un A100 de base c’est dans la dizaine de milliers d’euros au départ hein, pas franchement le truc que l’on met dans un PC perso :D

votre avatar

Vous m’en mettrez une palette :fumer:



:ooo:

votre avatar

David_L a dit:


Ce sont des cartes d’intégration, rarement vendues à part donc on a pas le prix (même si on demande à chaque fois comme indiqué dans l’article ;)). Mais bon, un A100 de base c’est dans la dizaine de milliers d’euros au départ hein, pas franchement le truc que l’on met dans un PC perso :D


Merci de l’info, je savais que tu avais une idée ;-)



Oui effectivement, c’est pour de l’intégration et vendu aux entreprises. Mais avoir le prix, c’est une idée de ce que NVIDIA attend à faire gagner comme temps ou perf aux intégrateurs/clients.



Vu la bestiole, 10 ou 15k c’est pas si cher quand t’as des besoins gargantuesque de puissance pour l’IA.

votre avatar

Oui et puis bon, c’est aussi du GPU pour AWS & co revendus à la découpe (et pas payé ce prix là ;))

NVIDIA dévoile sa DGX Station A100 à quatre GPU et une A100 (Ampere) avec 80 Go de mémoire

  • Mémoire doublée pour l'A100

  • DGX Station A100 : jusqu'à 4 GPU Ampere

Fermer