[Dossier PCi] Tout savoir de la GeForce GTX Titan de NVIDIA
En attendant les tests...
Le 19 février 2013 à 14h51
2 min
Sciences et espace
Sciences
Comme prévu, NVIDIA vient d'officialiser sa nouvelle carte graphique haut de gamme : la GeForce GTX Titan. Derrière ce nom se cache une puce déjà connue, le GK110, qui était intégré jusqu'à maintenant sur des cartes pour serveurs, les Tesla K20. Le tout est censé remplacer la GeForce GTX 690, mais avec un seul GPU.
NVIDIA aurait-il été irrité par l'arrivée de nouvelles Radeon HD 7990 overclockées et équipées de 6 Go de mémoire ? Il semblerait puisque le caméléon a finalement décidé de mettre sur le marché son GK110, une puce au départ pensée pour les serveurs et qui prend place au sein de son nouveau bébé haut de gamme : la GeForce GTX Titan.
Dotée d'un seul GPU, qui compte pas moins de 7,1 milliards de transistors tout de même, celle-ci se veut à la fois performante, mais surtout raisonnable. NVIDIA semble ainsi viser son intégration au sein de Mini PC grâce à son GPU Boost 2.0, à un ventirad revu et corrigé et à une meilleure gestion de l'énergie, et ce malgré un TDP de 250 watts.
De quoi faire baver les amateurs de performances qui n'ont pas peur de dépenser plus de 900 € pour une carte graphique ? C'est ce que nous avons tenté de voir au sein de ce dossier.
« Il y a quelques mois, NVIDIA dévoilait son GK110 : une puce monstrueuse disposant de pas moins de 7,1 milliards de transistors et dédiée à une carte pour serveur, la Tesla K20. Elle arrive désormais sur le marché grand public au sein d'un modèle à la référence qui annonce la couleur : GeForce Titan. Une manière de relancer un marché morose sans trop se forcer, ou un réel produit à ne pas manquer ?
NVIDIA propose depuis maintenant près d'un an sa nouvelle architecture : Kepler. Celle-ci a été déclinée ces derniers mois au sein d'une gamme complète : les GeForce 600 et leurs puces GK100. Actuellement, le modèle le plus puissant de l'offre est la GeForce GTX 690 qui est composée de deux GPU (GK104) et annoncée à 999 $. »
Commentaires (61)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 19/02/2013 à 14h51
prem’s sur la news mais pas prem’s a acheter " />
Le 19/02/2013 à 14h53
C’est con qu’ils sortent ça que maintenant, ils auraient fait ça y a 4 mois je l’aurais probablement achetée >.> 6Go de mémoire exploitable, c’est la seule carte capable d’un tel prodige.
Le 19/02/2013 à 14h58
Le 19/02/2013 à 14h58
7,1 milliards de transistors
TDP de 250 watts
" />" />
Le 19/02/2013 à 14h59
Perso je préfère attendre la sortie des consoles et donc des nouvelles GT700 basé sur ce même GK110 … (Enfin j’espère, les versions impaires de Nvidia ont toujours été mieux que les paires).
Le 19/02/2013 à 15h01
Le 19/02/2013 à 15h05
Moi je verrai bien un tirage au sort pour les Premium afin de faire gagner la petite cartounette que vous avez reçu… " />
NVIDIA n’autorise pour le moment pas les quelques testeurs à avoir reçu la carte (dont nous ne faisons pas partie) à publier leurs résultats.
" />
Le 19/02/2013 à 15h05
Le 19/02/2013 à 15h06
Le 19/02/2013 à 15h07
Le 19/02/2013 à 16h48
Le problème du Tri-écran, ce n’est pas d’avoir une bête de combat qui roxxe du poney mais …
de faire accepter à sa belle les 3 “verrues” accrocher au mur (mon bureau étant dans le salon).
J’ai dû vendre mon âme et lui promettre un beau mariage pour pas me prendre un coup de massue: Je crois au final que question négociation, je ne me sois encore fait avoir….elles sont trop fortes, je vous dit " />
Le 19/02/2013 à 16h50
Le 19/02/2013 à 16h51
Le 19/02/2013 à 16h57
Le 19/02/2013 à 17h00
Le 19/02/2013 à 17h04
Le 19/02/2013 à 17h06
Le 19/02/2013 à 17h09
Pour les adeptes de calcul plus que de jeux, NVIDIA a rajouté une option au sein de ses pilotes, dédiée à débrider les unités gérant la double précision. Le GK110 en intègre 64 par SMX et elles fonctionnent en temps normal à 1/8ème de la fréquence nominale. Le rapport entre les opérations en simple et en double précision est ainsi de 1⁄24.
Mais une fois cette option activée, la pleine fréquence est utilisée pour ces unités, permettant de profiter à plein des performances de ce monstre pour les applications exploitant l’OpenCL ou CUDA par exemple. Attention néanmoins, le reste de la carte fonctionne alors à une fréquence réduite, les performances dans les jeux pouvant s’en ressentir.
Ceci veut-il dire que sur les GK106/104 sont bridées par le driver et non par le hard ? Une option “logicielle” pourrait augmenter les perfs en double precision des ces cartes alors ? PC-I a-t-il des infos sur ce point précis ? Version du driver ? Est-ce également vrai dans la version Linux des drivers Nvidia ?
Le 19/02/2013 à 17h16
7,1 Milliards de transistor dans un seul GPU… ça commence à faire.
Si on me la donne, je refuses pas ^^
Le 19/02/2013 à 18h29
Ok en bench’s elle donne quoi " />
Le 19/02/2013 à 19h01
Je serai curieux de voir des tests dans le cadre d’attaque par force brute (ou autre méthodes) pour retrouver les mots de passe perdus de fichier personnels?
I have a dream
A.L.
Le 19/02/2013 à 19h34
Le 19/02/2013 à 19h35
Quelle peut être la durée de fonctionnement d’une telle carte graphique high end (sans trop la pousser dans un système de qualité, notamment avec alim et mobale choisies pour durer) ?
Parce que s’il est possible d’envisager de bons et loyaux services pendant, mettons, une quinzaine d’années, alors il ne serait pas absurde d’investir dans ce qui paraît aujourd’hui comme un produit destiné aux gamers invétérés et fortunés (un produit de luxe, donc) : sur 15 ans, cela reviendrait à renouveler tous les 5 ans une (bonne) carte de milieu de gamme à 300 €.
Est-ce envisageable ?
Le 19/02/2013 à 20h28
Le 19/02/2013 à 20h57
Le 19/02/2013 à 21h12
Le 19/02/2013 à 15h49
Le 19/02/2013 à 15h52
Le 19/02/2013 à 15h55
Le 19/02/2013 à 15h56
Le 19/02/2013 à 16h00
Le 19/02/2013 à 16h05
Le 19/02/2013 à 16h12
Le 19/02/2013 à 16h13
Le 19/02/2013 à 16h20
Le 19/02/2013 à 16h21
Le 19/02/2013 à 16h28
Le 19/02/2013 à 16h29
Le 19/02/2013 à 16h31
Le 19/02/2013 à 16h35
Le 19/02/2013 à 16h37
Le 19/02/2013 à 16h44
Le 19/02/2013 à 15h07
Le 19/02/2013 à 15h08
Le 19/02/2013 à 15h08
merci, vivement jeudi pour les tests complets ! " />
j’en profite pour indiquer que le preview de guru3dest très impressionnant aussi, avec plus de détails (températures, bruit, et un chouia sur l’overclockabilité)
Le 19/02/2013 à 15h15
Le 19/02/2013 à 15h16
Le 19/02/2013 à 15h20
Le 19/02/2013 à 15h23
C’est bruyant?
Le 19/02/2013 à 15h26
Le 19/02/2013 à 15h28
Le 19/02/2013 à 15h28
??? ya des easters eggs dans les news maintenant ? " />
Le 19/02/2013 à 15h33
Le 19/02/2013 à 15h34
Le 19/02/2013 à 15h39
Le 19/02/2013 à 15h40
Le 19/02/2013 à 15h41
NVIDIA semble ainsi viser son intégration au sein de Mini PC
En terme de form factor, on est dans le modèle “planche à pain” assez habituels pour la gamme GTX.
Dans un barebone adapté, je veux bien imaginer caser une GTX.
Quand on cherche “mini PC” sur prixdunet, on tombe notamment sur ça, qui coùte 160€ tout mouillé.
Hauteur : 3.8 cm
Largeur : 25.2 cm
Profondeur : 16.2 cm
Le 19/02/2013 à 15h43
Le 20/02/2013 à 10h59
En tout cas ce sera pas fait par des ouvriers Français, si ça s’appelle Titan " />
Le 20/02/2013 à 14h58
Le 20/02/2013 à 15h32
Si elle tient ses promesses, avec ses 6Go de ram, elle devrait, par exemple, être LA carte à avoir quand on fait du rendu Cycles dans Blender.
Si les perfs de DP sont bien celles annoncees, elle pourrait egalement etre tres interessante comme carte acceleratrice avec CUDA et/ou OpenCL et la c’est pas mal d’applications metiers que cela concerne (Photoshop, Maya, Matlab, Mathematica…) et pour un prix pas si eleve que ca au final au vue des specs. Mais j’aimerais que PCI nous eclaire sur cette question du bloquage des capacites DP controlle par le driver…Des infos precises la dessus ? Quid des GK106/104 ?