[MàJ] NVIDIA publie la version finale de CUDA 6
Moins de travail, c'est toujours bon à prendre
Le 15 avril 2014 à 17h10
2 min
Logiciel
Logiciel
NVIDIA vient d'annoncer officiellement la sixième version de CUDA, qui arrivera début 2014. Au programme, on note l'arrivée de la gestion unifiée de la mémoire, promise de longue date et qui permettra de simplifier le travail des développeurs. Mais quelques autres nouveautés sont aussi au programme.
« La plateforme CUDA 6 rend la programmation parallèle bien plus simple qu'auparavant, permettant aux développeurs de réduire de manière importante les efforts et le temps passé afin d'accélérer leurs applications grâce aux GPU ». C'est avec cette promesse que commence l'annonce officielle de la nouvelle version de CUDA qui n'arrivera que début 2014.
NVIDIA a profité de la fin de la conférence APU13 d'AMD pour faire cette annonce, et devrait en dire plus lors de la SC13 qui va ouvrir ses portes. La grande avancée de CUDA 6 est l'arrivée de la gestion unifiée de la mémoire, qui permet d'aller plus loin que ce qui était permis depuis CUDA 4.0 à ce niveau. En effet, désormais on évite au développeur de gérer l'échange des données entre la mémoire du CPU et celle du GPU pour avoir accès aux données. Celui-ci a toujours lieu, mais il est pris en charge automatiquement.
Une façon différente de faire d'AMD avec hUMA puisque cet échange n'est dans ce cas pas nécessaire, ce qui devrait constituer un avantage en terme de performances au niveau des APU. Il sera intéressant de voir ce qu'il en sera une fois que la prochaine architecture Maxwell sera sur le marché.
De nouvelles bibliothèques BLAS et FFT optimisées pour le multi-GPU capables de s'adapter à la présence d'un maximum de huit GPU. Elles seront automatiquement utilisées à la place des versions optimisées pour les CPU lorsque cela sera possible. Les développeurs qui veulent un accès préliminaires peuvent le demander par ici. De nombreux outils de développement seront mis à jour suite à l'arrivée de CUDA 6 qui devrait être dévoilé de manière plus complète dans les jours à venir.
Commentaires (18)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 15/11/2013 à 16h45
Le 15/11/2013 à 16h54
serait-ce un teaser des GTX 800 ? " />
Le 15/11/2013 à 20h48
Si c’est bien fait, ça pourrait faire baisser dramatiquement la consommation mémoire de certaines applis qui doivent maintenir de multiples copies de mêmes blocs de données… Amélioration donc des moteurs de rendu et des pipelines de compression vidéo.
Le 15/11/2013 à 23h03
depuis le temps que nvidia nous rabat les oreilles avec la mémoire unifié il était temps qu’ils le sorte avant de passer à la concurrence. " />
Le 15/11/2013 à 23h33
je suis pas un pro de la prog… mais une simple classe en CPP qui FAI passer les données de la RAM a la VRAM en vérifiant la synchro ce n’est pas bon ?
etc etc
je suppute mais c’est pas en gros ça mais directement intégré ?
Le 15/11/2013 à 23h34
pardon pour les fautes . Version mobile …
Le 18/11/2013 à 06h46
La plateforme CUDA 6 rend la programmation parallèle bien plus simple qu’auparavant, permettant aux développeurs de réduire de manière importante les efforts et le temps passé afin d’accélérer leurs applications grâce aux GPU
Pus simple je veux bien croire mais est ce que c’est vraiment utile ?
Quelqu’un qui cherche a utiliser son gpu, c’est pour les perfs et si y’a un truc qui est lent dans cette histoire : c’est la liaison pcie. Donc j’espère juste que ce sera pas du tout automatique et qu’on pourra toujours gérer ça explicitement si on veut.
Le 06/03/2014 à 14h25
Le 15/04/2014 à 19h11
Le 15/04/2014 à 19h32
Le 15/04/2014 à 21h36
Rassurez-vous je viens d’acquérir une GTX 770, donc la nouvelle gamme sortira forcément assez vite pour me dégoûter de pas avoir attendu un mois de plus.
Le 15/04/2014 à 21h42
Le 15/04/2014 à 21h48
Le 16/04/2014 à 02h27
Mouais, de toute façon CUDA est spécifique à NVidia et en 2014 ça n’a d’intérêt que pour ceux qui sont prisonniers de leur code en CUDA et ceux qui ont des contrats à gros sous avec NVidia. Aujourd’hui on utilise OpenCL, point barre, les API proprios vont crever comme elles le méritent.
A chaque fois c’est pareil de toute façon : douze vendeurs débarquent avec leurs solutions exclusives qu’il veulent imposer au reste du monde contre redevance à gros sous et deux ans plus tard ça finit avec un standard (et quand même des gros sous du fait de ces brevets logiciels inutiles de m….).
Le 16/04/2014 à 07h52
En effet, désormais on évite au développeur de gérer l’échange des données entre la mémoire du CPU et celle du GPU pour avoir accès aux données. Celui-ci a toujours lieu, mais il est pris en charge automatiquement.
C’est seulement une facilité pour le dev, ca n’améliore en rien les performances.
Et quand on voit le niveau de controle dont on a besoin pour faire un algo vraiment rapide, on retombera rapidement vers une gestion a la main des transferts mémoire.
Mais pour maquetter rapidement un truc, c’est cool.
Le 16/04/2014 à 08h04
Le 15/11/2013 à 16h42
Les développeurs qui veulent un accès préliminaires peuvent le demander par ici.
mais si je comprends bien, de toute manière il faudra attendre Maxwell pour bénéficier matériellement de ce partage mémoire. Je me trompe ?
Du coup, je vois déjà moins l’intérêt de donner l’accès tant qu’aucun GPU Maxwell n’est sur le marché. Ca sera au passage intéressant de voir quelle politique Nvidia va avoir sur la question du FP64 des GM110 (je suppose que la nomenclature ne changera pas) parce que c’est quand même la déception sur la génération Kepler. Surtout que AMD avec sa 7970 propose quelque chose des très correct et ce même pour le grand public; même si la Titan reste sur ce point “encore” intéressante….mais chère la vache!
Le 16/04/2014 à 09h05