NVIDIA dévoile sa DGX Station A100 à quatre GPU et une A100 (Ampere) avec 80 Go de mémoire
Vous avez beaucoup de données ?
Le 16 novembre 2020 à 14h26
2 min
Hardware
Hardware
Alors qu'AMD dévoile son Instinct MI100, NVIDIA choisit d'officialiser une carte que certains n'évoquaient qu'en coulisse : une A100 avec pas moins de 80 Go de mémoire, le double du modèle initial. Elle intègrera une station de travail maison dès l'année prochaine.
Lorsque NVIDIA a mis sur le marché sa première carte exploitant un GPU de la génération Ampere, c'était un modèle pour serveur, nommé A100. Elle a depuis été déclinée en différentes versions, pour station de travail (PCIe) ou plus accessible (A40), mais on attendait surtout l'arrivée d'un modèle plus haut de gamme encore.
Mémoire doublée pour l'A100
En effet, il se murmurait que le constructeur irait bien plus loin que les 40 Go de mémoire intégré à ce modèle. C'est le cas aujourd'hui avec une déclinaison à 80 Go de HBM2e. La bande passante annoncée dépasse les 2 To/s contre 1,6 To/s pour le modèle précédent. De quoi permettre de traiter rapidement de très gros jeux de données.
Cela peut avoir un autre intérêt, l'A100 pouvant être découpé en sept portions de GPU virtualisées, chacune avec de la mémoire lui étant dédiée. Cette nouvelle carte permet de doubler la quantité accessible à chaque portion. Le reste des caractéristiques est inchangé, tout comme le TDP (400 watts).
DGX Station A100 : jusqu'à 4 GPU Ampere
On retrouvera bien entendu cette puce dans de nouvelles versions des serveurs NVIDIA DGX A100 et la station de travail DGX Station A100 à quatre GPU (soit 320 Go de mémoire au maximum) annoncée pour l'occasion.
Ses caractéristiques techniques mentionnent un processeur AMD EPYC 7742 (64C/128T, de 2,25 à 3,4 GHz), 512 Go de DDR4, deux ports réseau à 10 Gb/s (RJ45), un à 1 Gb/s pour la gestion distance (BMC), 7,68 To de stockage NVMe (U.2), quatre sorties vidéo Mini DisplayPort (4 Go de mémoire dédiée). Le tout est livré sous Ubuntu.
Atos, Dell, Fujitsu, Gigabyte, HPE, Inspur, Lenovo, Quanta et Supermicro sont annoncés comme partenaires. Ils proposeront leurs propres modèles dès la première moitié de 2021. Aucun tarif n'a été précisé.
Côté réseau, des cartes à 400 Gb/s InfiniBand ont été annoncées par NVIDIA Networking (ex-Melllanox).
NVIDIA dévoile sa DGX Station A100 à quatre GPU et une A100 (Ampere) avec 80 Go de mémoire
-
Mémoire doublée pour l'A100
-
DGX Station A100 : jusqu'à 4 GPU Ampere
Commentaires (12)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 16/11/2020 à 14h30
But does it run Crysis ?
Le 16/11/2020 à 14h34
Ampere A100 = pas de pipeline 3D ;)
Le 16/11/2020 à 14h43
Bah Linus a bien réussi à le faire tourner en rendu software sur un Threadripper 3990X, on peut bien imaginer qu’un furieux trop fortuné essaye aussi avec ça.
Le 16/11/2020 à 14h57
Pour les trucs débiles, il y a toujours du monde
Le 16/11/2020 à 17h35
Vous avez beaucoup de
donnéesdollars ?Le 16/11/2020 à 17h44
Ca doit marcher du feu de Dieu ça sous BOINC (folding@home ; einstein@home ; asteroids@home)
Le 16/11/2020 à 17h47
Je vois pas le prix. C’est superflue pour Nvidia ?
Le 16/11/2020 à 20h08
ça doit envoyer les flops… et dans 15 ans on aura plus puissant dans nos smartphones
Le 17/11/2020 à 03h54
Ce sont des cartes d’intégration, rarement vendues à part donc on a pas le prix (même si on demande à chaque fois comme indiqué dans l’article ;)). Mais bon, un A100 de base c’est dans la dizaine de milliers d’euros au départ hein, pas franchement le truc que l’on met dans un PC perso
Le 17/11/2020 à 08h44
Le 17/11/2020 à 20h03
Merci de l’info, je savais que tu avais une idée ;-)
Oui effectivement, c’est pour de l’intégration et vendu aux entreprises. Mais avoir le prix, c’est une idée de ce que NVIDIA attend à faire gagner comme temps ou perf aux intégrateurs/clients.
Vu la bestiole, 10 ou 15k c’est pas si cher quand t’as des besoins gargantuesque de puissance pour l’IA.
Le 18/11/2020 à 08h27
Oui et puis bon, c’est aussi du GPU pour AWS & co revendus à la découpe (et pas payé ce prix là ;))