Connexion
Abonnez-vous

NVIDIA : Après Kepler viendra Maxwell, puis la génération Volta

Parés pour la suite ?

NVIDIA : Après Kepler viendra Maxwell, puis la génération Volta

Le 19 mars 2013 à 17h25

Durant sa Keynote d'ouverture de la GTC 2013, Jen Hsun Huang a décidé de lever le voile sur la roadmap des GPU à venir de la société. Si l'on avait déjà entendu parler du remplaçant de Kepler, Maxwell, on apprend qu'il sera ensuite question de Volta.

NVIDIA GTC 2013 NVIDIA GTC 2013

 

Durant sa Keynote d'ouverture, Jen Hsun Huang a fait la part belle aux usages autour de ses GPU au sein des applications scientifiques, mais aussi dans des usages aussi divers que le fait de retrouver des vêtements sur des sites de vente en ligne depuis la capture d'une photo issue d'un catalogue papier, Shazam ou l'analyse de tweets en masse... mais aussi le rendu d'océan ou de visage via Face Works, une démonstration d'ailleurs plutôt impressionnante.

Quelques démos, mais aussi des informations sur les GPU à venir

NVIDIA GTC 2013

 

Il a ensuite été question de la roadmap GPU de la société afin d'évoquer la suite de Kepler. Il devrait tout d'abord être question de Maxwell, dont nous avons déjà entendu parler. Cette génération sera l'occasion d'intégrer une mémoire unifiée virtuelle qui pourra être partagée entre le CPU et le GPU. Le ratio performance / watts devrait être doublé, comme pour la génération suivante.

 

NVIDIA GTC 2013NVIDIA GTC 2013

 

Car c'est la suite qui nous intéressait surtout : Volta. Cette fois, la grande nouveauté sera l'arrivée de « Stacked DRAM » qui prendra place au sein même de la puce. Une technologie déjà évoquée comme des pistes de recherche par la concurrence, dont Intel. Dans les deux cas, ce sont des avantages nets pour le calcul et CUDA qui sont visés. Reste à voir ce qu'il en sera du côté du jeu.

GRID fait son retour, pour le contrôle de VM à distance dans les entreprises

NVIDIA en a profité pour reparler de sa solution GRID VCA (Visual Computing Appliance), qui est un serveur complet (4U) composé de deux processeurs Xeon à huit coeurs, de 384 Go de mémoire et de huit cartes graphiques GRID (basés sur deux GPU Kepler) afin de supporter des machines virtuelles accessibles à distance. 

 

NVIDIA GTC 2013NVIDIA GTC 2013

 

Une démonstration a été effectuée sous OS X avec trois « workspaces » permettant chacun d'effectuer un calcul sur des applications nécessitant beaucoup de ressource sans que la machine locale ne soit sollicitée. Une manière aussi d'éviter les soucis concernant les données pouvant être volées sur un client utilisé par les employés des entreprises.

 

NVIDIA GTC 2013NVIDIA GTC 2013

 

Mais il est désormais temps de passer à la phase commerciale. Ainsi, deux versions sont proposées avec plus ou moins de mémoire, de CPU, de GPU... l'ensemble est livré de manière complète avec une partie logicielle GRID VGX ce qui permet à NVIDIA d'indiquer un tarif annuel dont il faudra s'acquitter en plus des 25 000 à 40 000 $ d'achat de matériel.

Commentaires (43)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar



viendra Maxwell





Il fera du café ? <img data-src=" />



Maxwell Qualité Filtre : Café soluble lyopilisé

votre avatar

Le rendu est bon, c’est réaliste, c’est bien = )

votre avatar
votre avatar

J’ai une question bien stupide à propos de CUDA. De nombreux programmes, notamment les encodeurs vidéo mettent en avant l’utilisation de cette technologie.

J’ai testé chez moi de VOB à MP4/H624 et je n’ai aucune différence notable entre encodage logiciel (CPU) et CUDA. Dès fois, c’est même moins bien en CUDA.

Testé avec plusieurs logiciels sur 2 configs différentes (Quad6600+8800GTS, Corei7-3770K/Geforce680). Donc, je ne comprends pas bien l’intérêt de CUDA.

votre avatar







metaphore54 a écrit :



Il fera du café ? <img data-src=" />



Maxwell Qualité Filtre : Café soluble lyopilisé







Et Volta fera office de batterie <img data-src=" />


votre avatar

Moi entre un i7 2600k et une GTX560 TI ou 660 je la vois bien la différence. 4x pour l’i7 contre 12x pour la GTX.

votre avatar

ont pourrais avoir plus d’explication sur ma mémoire unifié ?

votre avatar







Reparateur a écrit :



ont pourrais avoir plus d’explication sur ma mémoire unifié ?







Certainement comme se qu’il se fait sur console.


votre avatar







Reparateur a écrit :



ont pourrais avoir plus d’explication sur ma mémoire unifié ?





Du genre ?


votre avatar







David_L a écrit :



Du genre ?





Se que sa apporte ?


votre avatar







GrosRaisin a écrit :



Se que sa apporte ?





L’accès aux données mémoire du GPU depuis une application qui tourne sur le CPU et inversement ?


votre avatar







metaphore54 a écrit :



Il fera du café ? <img data-src=" />



Maxwell Qualité Filtre : Café soluble lyopilisé







Je te donne Carte Noire pour la gestion de la comm’ autour de Maxwell ! <img data-src=" /><img data-src=" />


votre avatar







David_L a écrit :



L’accès aux données mémoire du GPU depuis une application qui tourne sur le CPU et inversement ?





Le concepte de la memoire unifié on a compris: elle est adressable par le CPU et le GPU en mème temps;

La question c’est plutôt: techniquement comment c’est implémenté ?

La mémoire est sur la CM, sur la CG?

accès est il symétrique entre CPU et GPU?

Quel débit ?

Quelle latence ?

Interchangeable ?

Faut -il une CM spéciale ?


votre avatar

Edit: double ?

votre avatar

Ahhh ben tient …. la démo du visage ne semble pas prendre en compte TressFX …. il est chauve !! <img data-src=" />

votre avatar







Reparateur a écrit :



ont pourrais avoir plus d’explication sur ma mémoire unifié ?





ta mémoire unifié ? c’est un implant au niveau de ton cerveau


votre avatar

La roadmap en 2010

La roadmap en 2013



Maxwell n’est plus entre 14 et 16 GFlops/W mais entre 8 et 16. Ba tiens…

votre avatar

Pas plus d’information sur cette “Stacked DRAM “? Non, parce que plus abstrait je vois pas trop <img data-src=" /><img data-src=" />

votre avatar







Supernaz a écrit :



Maxwell n’est plus entre 14 et 16 GFlops/W mais entre 8 et 16. Ba tiens…







en l’occurrence, elle est toujours entre 14 et 16 ^^

c’est juste pas la même échelle :p (plus pratique de prendre une échelle exponentielle pour ajouter volta à la roadmap ^^)


votre avatar

Pourquoi ils ont choisi un gars aussi moche pour le rendu du visage ? Ca ne donne pas envie… <img data-src=" />

votre avatar

Le rendu du visage est assez impressionnant <img data-src=" />

votre avatar







David_L a écrit :



Du genre ?





Genre des phrases choc.


votre avatar







Tkop a écrit :



Le concepte de la memoire unifié on a compris: elle est adressable par le CPU et le GPU en mème temps;

La question c’est plutôt: techniquement comment c’est implémenté ?

La mémoire est sur la CM, sur la CG?

accès est il symétrique entre CPU et GPU?

Quel débit ?

Quelle latence ?

Interchangeable ?

Faut -il une CM spéciale ?







Bah la mémoire est sur la CG, je ne vois pas pourquoi il faudrait une carte mère spéciale. On est dans l’univers PC là ;)



Pour le reste, il faudra surement attendre d’en savoir plus sur l’architecture et les évolutions de CUDA, mais l’adressage CPU / GPU unifié est déjà implémenté et détaillé dans ce genre de docs chez NV (UVA) :



http://developer.download.nvidia.com/CUDA/training/cuda_webinars_GPUDirect_uva.p…


votre avatar







David_L a écrit :



Bah la mémoire est sur la CG, je ne vois pas pourquoi il faudrait une carte mère spéciale. On est dans l’univers PC là ;)



Pour le reste, il faudra surement attendre d’en savoir plus sur l’architecture et les évolutions de CUDA, mais l’adressage CPU / GPU unifié est déjà implémenté et détaillé dans ce genre de docs chez NV (UVA) :



http://developer.download.nvidia.com/CUDA/training/cuda_webinars_GPUDirect_uva.p…







J’ai pas tout saisis mais j’ai l’impression que ce n’est pas une unification matérielle de la mémoire ( la mémoire de la CG ne va pas s’ajouter à la mémoire CPU dans l’OS) mais une unification de l’adressage pour faciliter la programmation des transferts de données dans CUDA (quid de la répercution dans OpenCL?) et éventuellement éviter la redondance des données entre les GPU


votre avatar







Supernaz a écrit :



Genre des phrases choc.







<img data-src=" />


votre avatar

La prochaine prochaine génération s’appellera Herta.. ou pas <img data-src=" />

votre avatar







Just1_ a écrit :



Le rendu du visage est assez impressionnant <img data-src=" />







+1



J’espère qu’il ne faut pas un Sli Tri Way de Maxwell pour avoir ce redu à 12 fps <img data-src=" />


votre avatar







fma16 a écrit :



Pas plus d’information sur cette “Stacked DRAM “? Non, parce que plus abstrait je vois pas trop <img data-src=" /><img data-src=" />







D’après la news sur Engadget, il y aura un “silica substrate” entre le GPU et la mémoire. Ensuite grâce via un trou dans le silicone ils feront le plus de connexions possibles.



Enfin, je vous laisse lire en anglais parce que traduire ça c’est pas facile <img data-src=" />


votre avatar







Tkop a écrit :



J’ai pas tout saisis mais j’ai l’impression que ce n’est pas une unification matérielle de la mémoire ( la mémoire de la CG ne va pas s’ajouter à la mémoire CPU dans l’OS) mais une unification de l’adressage pour faciliter la programmation des transferts de données dans CUDA (quid de la répercution dans OpenCL?) et éventuellement éviter la redondance des données entre les GPU





Moi je l’ai compris comme un “NUMA” géant qui s’applique sur CPU et GPU.


votre avatar







Tkop a écrit :



Le concepte de la memoire unifié on a compris: elle est adressable par le CPU et le GPU en mème temps;

La question c’est plutôt: techniquement comment c’est implémenté ?

La mémoire est sur la CM, sur la CG?

accès est il symétrique entre CPU et GPU?

Quel débit ?

Quelle latence ?

Interchangeable ?

Faut -il une CM spéciale ?









  • memoire sur la cg

  • le debit memoire vers CM sera celui du PCI express au mieux.

  • donc acces asymetrique



    Enfin ca c’est si il reste dans le format actuel des cartes graphiques. Ou serait l’interet de se mettre a faire des CM pour nvidia ?


votre avatar







Skeeder a écrit :



Moi je l’ai compris comme un “NUMA” géant qui s’applique sur CPU et GPU.





Ouai mais je ne suis pas certain que l’on puisse accéder à la mémoire GPU en dehors de l’API cuda


votre avatar







Tkop a écrit :



J’ai pas tout saisis mais j’ai l’impression que ce n’est pas une unification matérielle de la mémoire ( la mémoire de la CG ne va pas s’ajouter à la mémoire CPU dans l’OS) mais une unification de l’adressage pour faciliter la programmation des transferts de données dans CUDA (quid de la répercution dans OpenCL?) et éventuellement éviter la redondance des données entre les GPU





L’os pourra l’utiliser si l’OS utilise Cuda. Apres on peut parier que cela va arriver rapidement dans une evolution de directX. OpenCl est exclu de cela pour l’instant sauf si nvidia l’implemente ou si opencl decide de s’y mettre aussi.


votre avatar







yeagermach1 a écrit :





  • memoire sur la cg



    • le debit memoire vers CM sera celui du PCI express au mieux.

    • donc acces asymetrique



      Enfin ca c’est si il reste dans le format actuel des cartes graphiques. Ou serait l’interet de se mettre a faire des CM pour nvidia ?





      Perso quand tu me parle de RAM CPU/GPU unifié je pense à la Xbox 360 ou à la ps4 … et aussi les IGP <img data-src=" />



votre avatar







Tkop a écrit :



Perso quand tu me parle de RAM CPU/GPU unifié je pense à la Xbox 360 ou à la ps4 … et aussi les IGP <img data-src=" />





Cela en vient surement pour le grand public. Mais on reste sur une config PC comme le dit le monsieur en rouge au dessus. A part changer complétement le paradigme de base, je ne vois pas comment changer cela.



Je veux dire, si tu la met sur la CM, c’est le GPU qui sera désavantagé parce que l’accès a la mémoire passera par le PCI-E. Si tu la met sur le GPU, cela sera le CPU qui sera désavantagé pour la même raison.



Je vois que deux solutions a cela :




  • un IGP mais nvidia ne fait pas de x86.

  • un nouveau port ultra performant mais on en aurait deja entendu parler (juste par les travaux de normification nécessaire a cela).


votre avatar

Oubliez pas que Maxwell integre project Denver, le CPU ARM 64 bits custom de chez Nvidia (Tegra 6, Parker, a la meme archi).

Donc AMHA, virtual memory, en conjonction avec CUDA, va permettre d’effectuer tous les calculs sur la carte graphique, le(s) core(s) ARM prendront en charge les operations logiques, et les cores CUDA les operations massivement paralleles. En evitant les vas et vients du bus PCI avec le CPU x86, ca va booster les perfs.

Volta, et son TB/s de bande passante, sera encore plus interessant.

Finalement Boulder sera l’aboutissement, un SoC haute performance en ARM 64bits qui n’aura plus besoin de CPU c86 pour fonctionner. Nvidia sans Intel quoi.

votre avatar







yeagermach1 a écrit :



Cela en vient surement pour le grand public. Mais on reste sur une config PC comme le dit le monsieur en rouge au dessus. A part changer complétement le paradigme de base, je ne vois pas comment changer cela.







Pendant longtemps il fallait des carte mère spéciale pour profiter du multi-GPU, d’abord des cm avec les chipset des constructeurs puis ensuite seulement des puce additionnelle.

Une carte mère avec un gestion spécifique de la ram pour le monde du calcul je ne trouve pas ça exceptionnel surtout que quand tu change ce genre de machine t’as tendance à tout changer et pas changer pièce par pièce .

Mais je pense que t’as raison.


votre avatar







fma16 a écrit :



Pas plus d’information sur cette “Stacked DRAM “? Non, parce que plus abstrait je vois pas trop <img data-src=" /><img data-src=" />







En faite c’est une évolution dans la manière de fabriquer les puces de mémoires : actuellement on atteint une limite de la taille des puces de mémoires possibles : limite de taille physique.



Pour parler plus clairement : plus de cases mémoires (et donc de capacité) peut se faire par deux moyens :





  • Augmenter la densité (et donc diminuer la taille des cases mémoires) : c’est ce que l’on fait depuis longtemps, mais il devient de plus en plus difficile de continuer efficacement.

  • Mettre plus de cases mémoires : ce que l’on fait aussi, mais la il y a une limite physique : celle de la vitesse des électrons. Plus la puce mémoire est grande en taille, moins on peut augmenter la fréquence : les cases les plus éloignées mettent plus de temps à répondre.



    La solution c’est celle des gratte-ciels !

    Au lieu de mettre les étages à cotés des autres, on les empile ! On fait une couches de X cellules mémoires, puis une autre au dessus, puis ainsi de suite. En pensant en 3D on réduit le chemin à faire pour aller au cellules les plus éloignées (pour une quantité égale).



    Néanmoins cette technologie demande encore un certain nombre de perfectionnements, surtout pour la mémoire graphique.


votre avatar

maxwell : qualité filtre ?



volta ? vivolta ?









ArthurG a écrit :



Oubliez pas que Maxwell integre project Denver,







denver, le dernier dinosaure ?





bon ok je sors , je suis fatigué <img data-src=" />


votre avatar







Reparateur a écrit :



ont pourrais avoir plus d’explication sur ma mémoire unifié ?







http://mrelusive.com/publications/presentations/2012_siggraph/Virtual_Texturing_…


votre avatar

Perso je me fiche un peu de ce calendrier, tout ce que je sais c’est que les GTX au premier digit pair sont des cartes tests, et que les cartes qui les succède sont des révisions plus performantes et moins gourmande.



Si tant est que je reste chez Nvidia vu comment les soucis avec Tomb Raider sont gérés. C’est une honte de leur part.

votre avatar

Mettre seulement un screenshot de la demo visage dans l’article, c’est passer à coté de 95% de la démo qui cible l’animation du visage et non le rendu… Ce rendu on l’avait deja 2 générations de GPU avant hein, pas la peine de s’extasier sur l’image.

Plus de détails (et la video surtout) ici:http://blogs.nvidia.com/2013/03/a-demo-thats-truly-a-head-of-its-time/

votre avatar







Tkop a écrit :



Le concepte de la memoire unifié on a compris: elle est adressable par le CPU et le GPU en mème temps;

La question c’est plutôt: techniquement comment c’est implémenté ?

La mémoire est sur la CM, sur la CG?

accès est il symétrique entre CPU et GPU?

Quel débit ?

Quelle latence ?

Interchangeable ?

Faut -il une CM spéciale ?











voilà


votre avatar







belgeek a écrit :



D’après la news sur Engadget, il y aura un “silica substrate” entre le GPU et la mémoire. Ensuite grâce via un trou dans le silicone ils feront le plus de connexions possibles.



Enfin, je vous laisse lire en anglais parce que traduire ça c’est pas facile <img data-src=" />







Alors je commence un tout petit peu:

l’ anglais “silicone” == le français “silicium”


NVIDIA : Après Kepler viendra Maxwell, puis la génération Volta

  • Quelques démos, mais aussi des informations sur les GPU à venir

Fermer