NVIDIA : Après Kepler viendra Maxwell, puis la génération Volta

NVIDIA : Après Kepler viendra Maxwell, puis la génération Volta

Parés pour la suite ?

Avatar de l'auteur

David Legrand

Publié dansSciences et espace

19/03/2013
43
NVIDIA : Après Kepler viendra Maxwell, puis la génération Volta

Durant sa Keynote d'ouverture de la GTC 2013, Jen Hsun Huang a décidé de lever le voile sur la roadmap des GPU à venir de la société. Si l'on avait déjà entendu parler du remplaçant de Kepler, Maxwell, on apprend qu'il sera ensuite question de Volta.

NVIDIA GTC 2013 NVIDIA GTC 2013

 

Durant sa Keynote d'ouverture, Jen Hsun Huang a fait la part belle aux usages autour de ses GPU au sein des applications scientifiques, mais aussi dans des usages aussi divers que le fait de retrouver des vêtements sur des sites de vente en ligne depuis la capture d'une photo issue d'un catalogue papier, Shazam ou l'analyse de tweets en masse... mais aussi le rendu d'océan ou de visage via Face Works, une démonstration d'ailleurs plutôt impressionnante.

Quelques démos, mais aussi des informations sur les GPU à venir

NVIDIA GTC 2013

 

Il a ensuite été question de la roadmap GPU de la société afin d'évoquer la suite de Kepler. Il devrait tout d'abord être question de Maxwell, dont nous avons déjà entendu parler. Cette génération sera l'occasion d'intégrer une mémoire unifiée virtuelle qui pourra être partagée entre le CPU et le GPU. Le ratio performance / watts devrait être doublé, comme pour la génération suivante.

 

NVIDIA GTC 2013NVIDIA GTC 2013

 

Car c'est la suite qui nous intéressait surtout : Volta. Cette fois, la grande nouveauté sera l'arrivée de « Stacked DRAM » qui prendra place au sein même de la puce. Une technologie déjà évoquée comme des pistes de recherche par la concurrence, dont Intel. Dans les deux cas, ce sont des avantages nets pour le calcul et CUDA qui sont visés. Reste à voir ce qu'il en sera du côté du jeu.

GRID fait son retour, pour le contrôle de VM à distance dans les entreprises

NVIDIA en a profité pour reparler de sa solution GRID VCA (Visual Computing Appliance), qui est un serveur complet (4U) composé de deux processeurs Xeon à huit coeurs, de 384 Go de mémoire et de huit cartes graphiques GRID (basés sur deux GPU Kepler) afin de supporter des machines virtuelles accessibles à distance. 

 

NVIDIA GTC 2013NVIDIA GTC 2013

 

Une démonstration a été effectuée sous OS X avec trois « workspaces » permettant chacun d'effectuer un calcul sur des applications nécessitant beaucoup de ressource sans que la machine locale ne soit sollicitée. Une manière aussi d'éviter les soucis concernant les données pouvant être volées sur un client utilisé par les employés des entreprises.

 

NVIDIA GTC 2013NVIDIA GTC 2013

 

Mais il est désormais temps de passer à la phase commerciale. Ainsi, deux versions sont proposées avec plus ou moins de mémoire, de CPU, de GPU... l'ensemble est livré de manière complète avec une partie logicielle GRID VGX ce qui permet à NVIDIA d'indiquer un tarif annuel dont il faudra s'acquitter en plus des 25 000 à 40 000 $ d'achat de matériel.

43
Avatar de l'auteur

Écrit par David Legrand

Tiens, en parlant de ça :

Panneau stop

Apple bloque Beeper, qui permettait d’utiliser iMessage sur Android

Pépins contre pomme

12:27 WebSoft 1
Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

652e édition des LIDD : Liens Intelligents Du Dimanche

Et bonne nuit les petits

00:04 Next 9
dessin de Flock

#Flock distribue des mandales tous azimuts

13:40 Flock 14

Sommaire de l'article

Introduction

Quelques démos, mais aussi des informations sur les GPU à venir

Panneau stop

Apple bloque Beeper, qui permettait d’utiliser iMessage sur Android

WebSoft 1

#LeBrief : faux avis sur Internet, enquêtes sur l’accord Microsoft et OpenAI, cybersécurité aux États-Unis

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

652e édition des LIDD : Liens Intelligents Du Dimanche

Next 9
dessin de Flock

#Flock distribue des mandales tous azimuts

Flock 14
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

Next 43
Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Hard 25

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

IA 6
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

Soft 41
Une petite fille en train d'apprendre à programmer et hacker logiciels et appareils électroniques

Un roman graphique explique les logiciels libres aux enfants

SoftSociété 21
Nouveautés pour Messenger

Meta lance (enfin) le chiffrement de bout en bout de Messenger, entre autres

Socials 5

#LeBrief : cloud européen, OSIRIS-REx a frôlée la catastrophe, CPU AMD Ryzen 8040

Windows en 2024 : beaucoup d’IA, mais pas forcément un « 12 »

Soft 21
Einstein avec des qubits en arrière plan

Informatique quantique, qubits : avez-vous les bases ?

HardScience 9
Notifications iPhone

Surveillance des notifications : un sénateur américain demande la fin du secret

DroitSécu 17

En ligne, les promos foireuses restent d’actualité

DroitWeb 19

#LeBrief : modalité des amendes RGPD, cyberattaque agricole, hallucinations d’Amazon Q, 25 ans d’ISS

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 30
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 10
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 8
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 78

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 3
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 25
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 22

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Acheter sur Internet et payer avec sa carte bancaire

La DGCCRF traque les faux avis sur Internet avec son Polygraphe

ÉcoWeb 11

Logo OpenAI

Au Royaume-Uni et aux États-Unis, l’accord entre Microsoft et OpenAI à la loupe

Droit 1

Une main tenant de gros paquets de dollars

87 % des agences états-uniennes ne parviennent pas à respecter les normes de cybersécurité

DroitSécu 3

Florie Marie démissionne de la présidence du Parti Pirate International

Société 6

Commentaires (43)


Supernaz
Le 19/03/2013 à 17h33

La roadmap en 2010
La roadmap en 2013

Maxwell n’est plus entre 14 et 16 GFlops/W mais entre 8 et 16. Ba tiens…


fma16
Le 19/03/2013 à 17h35

Pas plus d’information sur cette “Stacked DRAM “? Non, parce que plus abstrait je vois pas trop <img data-src=" /><img data-src=" />


kaito_kid Abonné
Le 19/03/2013 à 17h36






Supernaz a écrit :

Maxwell n’est plus entre 14 et 16 GFlops/W mais entre 8 et 16. Ba tiens…



en l’occurrence, elle est toujours entre 14 et 16 ^^
c’est juste pas la même échelle :p (plus pratique de prendre une échelle exponentielle pour ajouter volta à la roadmap ^^)



vampire7
Le 19/03/2013 à 17h37

Pourquoi ils ont choisi un gars aussi moche pour le rendu du visage ? Ca ne donne pas envie… <img data-src=" />


Just1_ Abonné
Le 19/03/2013 à 17h37

Le rendu du visage est assez impressionnant <img data-src=" />


metaphore54
Le 19/03/2013 à 17h38


viendra Maxwell


Il fera du café ? <img data-src=" />

Maxwell Qualité Filtre : Café soluble lyopilisé


kamuisuki
Le 19/03/2013 à 17h40

Le rendu est bon, c’est réaliste, c’est bien = )


Skyforger
Le 19/03/2013 à 17h45
Aloyse57
Le 19/03/2013 à 17h46

J’ai une question bien stupide à propos de CUDA. De nombreux programmes, notamment les encodeurs vidéo mettent en avant l’utilisation de cette technologie.
J’ai testé chez moi de VOB à MP4/H624 et je n’ai aucune différence notable entre encodage logiciel (CPU) et CUDA. Dès fois, c’est même moins bien en CUDA.
Testé avec plusieurs logiciels sur 2 configs différentes (Quad6600+8800GTS, Corei7-3770K/Geforce680). Donc, je ne comprends pas bien l’intérêt de CUDA.


Alpha Centauri
Le 19/03/2013 à 17h47






metaphore54 a écrit :

Il fera du café ? <img data-src=" />

Maxwell Qualité Filtre : Café soluble lyopilisé



Et Volta fera office de batterie <img data-src=" />



Fu2chN
Le 19/03/2013 à 17h48

Moi entre un i7 2600k et une GTX560 TI ou 660 je la vois bien la différence. 4x pour l’i7 contre 12x pour la GTX.


Reparateur
Le 19/03/2013 à 17h59

ont pourrais avoir plus d’explication sur ma mémoire unifié ?


Fu2chN
Le 19/03/2013 à 18h00






Reparateur a écrit :

ont pourrais avoir plus d’explication sur ma mémoire unifié ?



Certainement comme se qu’il se fait sur console.



David_L Abonné
Le 19/03/2013 à 18h01






Reparateur a écrit :

ont pourrais avoir plus d’explication sur ma mémoire unifié ?


Du genre ?



Fu2chN
Le 19/03/2013 à 18h04






David_L a écrit :

Du genre ?


Se que sa apporte ?



David_L Abonné
Le 19/03/2013 à 18h05






GrosRaisin a écrit :

Se que sa apporte ?


L’accès aux données mémoire du GPU depuis une application qui tourne sur le CPU et inversement ?



John Shaft Abonné
Le 19/03/2013 à 18h06






metaphore54 a écrit :

Il fera du café ? <img data-src=" />

Maxwell Qualité Filtre : Café soluble lyopilisé



Je te donne Carte Noire pour la gestion de la comm’ autour de Maxwell ! <img data-src=" /><img data-src=" />



Tkop
Le 19/03/2013 à 18h08






David_L a écrit :

L’accès aux données mémoire du GPU depuis une application qui tourne sur le CPU et inversement ?


Le concepte de la memoire unifié on a compris: elle est adressable par le CPU et le GPU en mème temps;
La question c’est plutôt: techniquement comment c’est implémenté ?
La mémoire est sur la CM, sur la CG?
accès est il symétrique entre CPU et GPU?
Quel débit ?
Quelle latence ?
Interchangeable ?
Faut -il une CM spéciale ?



Tkop
Le 19/03/2013 à 18h08

Edit: double ?


Seth-01
Le 19/03/2013 à 18h09

Ahhh ben tient …. la démo du visage ne semble pas prendre en compte TressFX …. il est chauve !! <img data-src=" />


xillibit Abonné
Le 19/03/2013 à 18h09






Reparateur a écrit :

ont pourrais avoir plus d’explication sur ma mémoire unifié ?


ta mémoire unifié ? c’est un implant au niveau de ton cerveau



Supernaz
Le 19/03/2013 à 18h13






David_L a écrit :

Du genre ?


Genre des phrases choc.



David_L Abonné
Le 19/03/2013 à 18h13






Tkop a écrit :

Le concepte de la memoire unifié on a compris: elle est adressable par le CPU et le GPU en mème temps;
La question c’est plutôt: techniquement comment c’est implémenté ?
La mémoire est sur la CM, sur la CG?
accès est il symétrique entre CPU et GPU?
Quel débit ?
Quelle latence ?
Interchangeable ?
Faut -il une CM spéciale ?



Bah la mémoire est sur la CG, je ne vois pas pourquoi il faudrait une carte mère spéciale. On est dans l’univers PC là ;)

Pour le reste, il faudra surement attendre d’en savoir plus sur l’architecture et les évolutions de CUDA, mais l’adressage CPU / GPU unifié est déjà implémenté et détaillé dans ce genre de docs chez NV (UVA) :

http://developer.download.nvidia.com/CUDA/training/cuda_webinars_GPUDirect_uva.p…



Tkop
Le 19/03/2013 à 18h20






David_L a écrit :

Bah la mémoire est sur la CG, je ne vois pas pourquoi il faudrait une carte mère spéciale. On est dans l’univers PC là ;)

Pour le reste, il faudra surement attendre d’en savoir plus sur l’architecture et les évolutions de CUDA, mais l’adressage CPU / GPU unifié est déjà implémenté et détaillé dans ce genre de docs chez NV (UVA) :

http://developer.download.nvidia.com/CUDA/training/cuda_webinars_GPUDirect_uva.p…



J’ai pas tout saisis mais j’ai l’impression que ce n’est pas une unification matérielle de la mémoire ( la mémoire de la CG ne va pas s’ajouter à la mémoire CPU dans l’OS) mais une unification de l’adressage pour faciliter la programmation des transferts de données dans CUDA (quid de la répercution dans OpenCL?) et éventuellement éviter la redondance des données entre les GPU



dede36
Le 19/03/2013 à 18h21






Supernaz a écrit :

Genre des phrases choc.



<img data-src=" />



tAran
Le 19/03/2013 à 18h25

La prochaine prochaine génération s’appellera Herta.. ou pas <img data-src=" />


sniperdc
Le 19/03/2013 à 18h39






Just1_ a écrit :

Le rendu du visage est assez impressionnant <img data-src=" />



+1

J’espère qu’il ne faut pas un Sli Tri Way de Maxwell pour avoir ce redu à 12 fps <img data-src=" />



belgeek
Le 19/03/2013 à 19h01






fma16 a écrit :

Pas plus d’information sur cette “Stacked DRAM “? Non, parce que plus abstrait je vois pas trop <img data-src=" /><img data-src=" />



D’après la news sur Engadget, il y aura un “silica substrate” entre le GPU et la mémoire. Ensuite grâce via un trou dans le silicone ils feront le plus de connexions possibles.

Enfin, je vous laisse lire en anglais parce que traduire ça c’est pas facile <img data-src=" />



Skeeder
Le 19/03/2013 à 19h22






Tkop a écrit :

J’ai pas tout saisis mais j’ai l’impression que ce n’est pas une unification matérielle de la mémoire ( la mémoire de la CG ne va pas s’ajouter à la mémoire CPU dans l’OS) mais une unification de l’adressage pour faciliter la programmation des transferts de données dans CUDA (quid de la répercution dans OpenCL?) et éventuellement éviter la redondance des données entre les GPU


Moi je l’ai compris comme un “NUMA” géant qui s’applique sur CPU et GPU.



yeagermach1
Le 19/03/2013 à 19h23






Tkop a écrit :

Le concepte de la memoire unifié on a compris: elle est adressable par le CPU et le GPU en mème temps;
La question c’est plutôt: techniquement comment c’est implémenté ?
La mémoire est sur la CM, sur la CG?
accès est il symétrique entre CPU et GPU?
Quel débit ?
Quelle latence ?
Interchangeable ?
Faut -il une CM spéciale ?






  • memoire sur la cg

  • le debit memoire vers CM sera celui du PCI express au mieux.

  • donc acces asymetrique

    Enfin ca c’est si il reste dans le format actuel des cartes graphiques. Ou serait l’interet de se mettre a faire des CM pour nvidia ?



Tkop
Le 19/03/2013 à 19h25






Skeeder a écrit :

Moi je l’ai compris comme un “NUMA” géant qui s’applique sur CPU et GPU.


Ouai mais je ne suis pas certain que l’on puisse accéder à la mémoire GPU en dehors de l’API cuda



yeagermach1
Le 19/03/2013 à 19h26






Tkop a écrit :

J’ai pas tout saisis mais j’ai l’impression que ce n’est pas une unification matérielle de la mémoire ( la mémoire de la CG ne va pas s’ajouter à la mémoire CPU dans l’OS) mais une unification de l’adressage pour faciliter la programmation des transferts de données dans CUDA (quid de la répercution dans OpenCL?) et éventuellement éviter la redondance des données entre les GPU


L’os pourra l’utiliser si l’OS utilise Cuda. Apres on peut parier que cela va arriver rapidement dans une evolution de directX. OpenCl est exclu de cela pour l’instant sauf si nvidia l’implemente ou si opencl decide de s’y mettre aussi.



Tkop
Le 19/03/2013 à 19h26






yeagermach1 a écrit :




  • memoire sur la cg


    • le debit memoire vers CM sera celui du PCI express au mieux.

    • donc acces asymetrique

      Enfin ca c’est si il reste dans le format actuel des cartes graphiques. Ou serait l’interet de se mettre a faire des CM pour nvidia ?


      Perso quand tu me parle de RAM CPU/GPU unifié je pense à la Xbox 360 ou à la ps4 … et aussi les IGP <img data-src=" />




yeagermach1
Le 19/03/2013 à 19h30






Tkop a écrit :

Perso quand tu me parle de RAM CPU/GPU unifié je pense à la Xbox 360 ou à la ps4 … et aussi les IGP <img data-src=" />


Cela en vient surement pour le grand public. Mais on reste sur une config PC comme le dit le monsieur en rouge au dessus. A part changer complétement le paradigme de base, je ne vois pas comment changer cela.

Je veux dire, si tu la met sur la CM, c’est le GPU qui sera désavantagé parce que l’accès a la mémoire passera par le PCI-E. Si tu la met sur le GPU, cela sera le CPU qui sera désavantagé pour la même raison.

Je vois que deux solutions a cela :




  • un IGP mais nvidia ne fait pas de x86.

  • un nouveau port ultra performant mais on en aurait deja entendu parler (juste par les travaux de normification nécessaire a cela).



ArthurG
Le 19/03/2013 à 19h33

Oubliez pas que Maxwell integre project Denver, le CPU ARM 64 bits custom de chez Nvidia (Tegra 6, Parker, a la meme archi).
Donc AMHA, virtual memory, en conjonction avec CUDA, va permettre d’effectuer tous les calculs sur la carte graphique, le(s) core(s) ARM prendront en charge les operations logiques, et les cores CUDA les operations massivement paralleles. En evitant les vas et vients du bus PCI avec le CPU x86, ca va booster les perfs.
Volta, et son TB/s de bande passante, sera encore plus interessant.
Finalement Boulder sera l’aboutissement, un SoC haute performance en ARM 64bits qui n’aura plus besoin de CPU c86 pour fonctionner. Nvidia sans Intel quoi.


Tkop
Le 19/03/2013 à 19h38






yeagermach1 a écrit :

Cela en vient surement pour le grand public. Mais on reste sur une config PC comme le dit le monsieur en rouge au dessus. A part changer complétement le paradigme de base, je ne vois pas comment changer cela.



Pendant longtemps il fallait des carte mère spéciale pour profiter du multi-GPU, d’abord des cm avec les chipset des constructeurs puis ensuite seulement des puce additionnelle.
Une carte mère avec un gestion spécifique de la ram pour le monde du calcul je ne trouve pas ça exceptionnel surtout que quand tu change ce genre de machine t’as tendance à tout changer et pas changer pièce par pièce .
Mais je pense que t’as raison.



amFXR0
Le 19/03/2013 à 19h56






fma16 a écrit :

Pas plus d’information sur cette “Stacked DRAM “? Non, parce que plus abstrait je vois pas trop <img data-src=" /><img data-src=" />



En faite c’est une évolution dans la manière de fabriquer les puces de mémoires : actuellement on atteint une limite de la taille des puces de mémoires possibles : limite de taille physique.

Pour parler plus clairement : plus de cases mémoires (et donc de capacité) peut se faire par deux moyens :




  • Augmenter la densité (et donc diminuer la taille des cases mémoires) : c’est ce que l’on fait depuis longtemps, mais il devient de plus en plus difficile de continuer efficacement.

  • Mettre plus de cases mémoires : ce que l’on fait aussi, mais la il y a une limite physique : celle de la vitesse des électrons. Plus la puce mémoire est grande en taille, moins on peut augmenter la fréquence : les cases les plus éloignées mettent plus de temps à répondre.

    La solution c’est celle des gratte-ciels !
    Au lieu de mettre les étages à cotés des autres, on les empile ! On fait une couches de X cellules mémoires, puis une autre au dessus, puis ainsi de suite. En pensant en 3D on réduit le chemin à faire pour aller au cellules les plus éloignées (pour une quantité égale).

    Néanmoins cette technologie demande encore un certain nombre de perfectionnements, surtout pour la mémoire graphique.



killer63
Le 19/03/2013 à 20h37

maxwell : qualité filtre ?

volta ? vivolta ?






ArthurG a écrit :

Oubliez pas que Maxwell integre project Denver,



denver, le dernier dinosaure ?


bon ok je sors , je suis fatigué <img data-src=" />



Lazare
Le 20/03/2013 à 07h01






Reparateur a écrit :

ont pourrais avoir plus d’explication sur ma mémoire unifié ?



http://mrelusive.com/publications/presentations/2012_siggraph/Virtual_Texturing_…



xxSeize
Le 20/03/2013 à 07h52

Perso je me fiche un peu de ce calendrier, tout ce que je sais c’est que les GTX au premier digit pair sont des cartes tests, et que les cartes qui les succède sont des révisions plus performantes et moins gourmande.

Si tant est que je reste chez Nvidia vu comment les soucis avec Tomb Raider sont gérés. C’est une honte de leur part.


divide
Le 20/03/2013 à 08h20

Mettre seulement un screenshot de la demo visage dans l’article, c’est passer à coté de 95% de la démo qui cible l’animation du visage et non le rendu… Ce rendu on l’avait deja 2 générations de GPU avant hein, pas la peine de s’extasier sur l’image.
Plus de détails (et la video surtout) ici:http://blogs.nvidia.com/2013/03/a-demo-thats-truly-a-head-of-its-time/


Reparateur
Le 20/03/2013 à 08h40






Tkop a écrit :

Le concepte de la memoire unifié on a compris: elle est adressable par le CPU et le GPU en mème temps;
La question c’est plutôt: techniquement comment c’est implémenté ?
La mémoire est sur la CM, sur la CG?
accès est il symétrique entre CPU et GPU?
Quel débit ?
Quelle latence ?
Interchangeable ?
Faut -il une CM spéciale ?





voilà



levhieu
Le 20/03/2013 à 09h23






belgeek a écrit :

D’après la news sur Engadget, il y aura un “silica substrate” entre le GPU et la mémoire. Ensuite grâce via un trou dans le silicone ils feront le plus de connexions possibles.

Enfin, je vous laisse lire en anglais parce que traduire ça c’est pas facile <img data-src=" />



Alors je commence un tout petit peu:
l’ anglais “silicone” == le français “silicium”