Connexion
Abonnez-vous

La GeForce GTX Titan Z est officielle, mais aucun test n’est en ligne

La Fnac propose une offre de location ?

La GeForce GTX Titan Z est officielle, mais aucun test n'est en ligne

Le 28 mai 2014 à 13h30

Comme prévu, c'est aujourd'hui que NVIDIA lève le voile sur sa nouvelle carte graphique haut de gamme la GeForce GTX Titan Z. Annoncée il y a quelques semaines, elle se compose principalement de deux puces GK 110, accompagnées par 2x 6 Go de GDDR5, pour un tarif gravitant autour des 3 000 euros.

Titan Z

Depuis toujours, AMD et NVIDIA essayent mutuellement de se ravir le titre du fabricant disposant de la carte graphique la plus performante du marché. À ce jeu du « qui à la plus grosse », pour l'heure c'est AMD qui se trouve sur la plus haute marche du podium  grâce à sa récente Radeon R9 295X2, une carte dotée de deux GPU de dernière génération et d'un refroidissement hybride formé d'un ventirad classique et d'un système de watercooling. Un dispositif indispensable pour calmer les ardeurs de la bête et son TDP de 500 watts. 

Une carte ultime et sans watercooling, à un tarif exorbitant

Alors qu'elle est disponible depuis plus d'un mois et demi, c'est au tour de NVIDIA de répliquer avec une carte à peine moins ambitieuse : la GeForce GTX Titan Z. Comme sa concurrente, elle s'articule autour de deux GPU haut de gamme, en l'occurrence ici le GK110 complets, déjà utilisés dans la GeForce GTX Titan Black.

 

Si l'ensemble des unités de traitement sont bien présentes, avec un total de 5760 CUDA Cores (2 x 2880), la fréquence des GPU est par contre largement revue à la baisse. En effet au lieu des 889 MHz de base et 980 MHz via GPU Boost de la Titan Black, les GK110 de la Titan Z se contentent de respectivement 705 et 876 MHz dans les mêmes conditions. Une réduction certainement nécessaire pour maintenir un TDP de 375 watts, ce qui semble un brin plus raisonnable que ce que propose la concurrence. Les 12 Go de GDDR5 sont quant à eux cadencés à 3500 MHz.

La carte a de mauvaises performances dans les jeux ? Et si on évitait de la faire tester ?

Mais voilà, elle est aussi sans doute moins performante que sa concurrente, vendue deux fois moins cher. La raison de ce placement est simple selon NVIDIA : ce produit s'adresse surtout à ceux qui veulent disposer des capacités de calcul en double précision, non bridée sur la gamme Titan, ce qui n'intéresse pas les joueurs mais certains développeurs qui ne veulent pas forcément passer par la gamme professionnelle et ses tarifs encore plus exorbitant. Car il est en effet question de 3000 euros tout de même, que ce soit chez Absolute PC, LDLC ou Materiel.net par exemple. Le caméléon compte ainsi vendre les quelques exemplaires disponibles à prix fort. Problème, on peut trouver deux Titan Black à 2 000 €.

 

Mais l'on ne pourra que regretter les choix effectués pour ce lancement. Après un retard de dernière minute, officiellement en raison des drivers qui n'étaient pas prêts, on a cette fois droit à un lancement dont la date a été décidé il y a très peu de temps, et où seuls les partenaires et les revendeurs évoquent le produit. Aucun test dans la presse n'a ainsi été publié, ce que l'on ne peut que regretter, comme Guru3D. Espérons tout de même que nos confrères pourront finalement décortiquer ce nouveau produit sous tous ses aspects.

 

Commentaires (43)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

“La carte a de mauvaises performances dans les jeux ? Et si on évitait de la faire tester ?”



Petit clin d’œil à ceux qui m’expliquaient que c’était une carte ultime pour jouer à des réso supérieure au full HD. <img data-src=" />

votre avatar

Ils font une remise pour ceux qui veulent se faire un Quad SLI ? <img data-src=" />

votre avatar







shadowfox a écrit :



“La carte a de mauvaises performances dans les jeux ? Et si on évitait de la faire tester ?”



Petit clin d’œil à ceux qui m’expliquaient que c’était une carte ultime pour jouer à des réso supérieure au full HD. <img data-src=" />





Y a deja la r9 295x2 pour ca <img data-src=" />


votre avatar







David a écrit :



À ce jeu du « qui à la plus grosse kikalaplugrosse »,





<img data-src=" /><img data-src=" />







athlon64 a écrit :



Y a deja la r9 295x2 pour ca <img data-src=" />





“Pas assez cher, mon fils !” <img data-src=" />


votre avatar







gogo77 a écrit :



Ils font une remise pour ceux qui veulent se faire un Quad SLI ? <img data-src=" />





Deja bi-GPU <img data-src=" />


votre avatar

Cool ça devrait permettre d’atteindre les 1080p@60fps de manière constante sur Watch_dogs

votre avatar

Je considère les cartes de type “Titan” chez nvidia comme un posage de bite sur table pour dire à tout le monde “voila, nous on est capable de faire ce monstre, en en plus, elle n’est pas turgescente (pleine de liquide)”. Je ne crois pas que NVidia cherche à vraiment gagner de l’argent directement avec cette carte. C’est juste une preuve de leur compétence.

votre avatar

Pour faire du rendu accéléré sous blender, cette carte doit certainement être un gros coup de boost.



Mais on peut avoir de meilleurs perfs en mettant deux titan black dans le pc, et pour moins cher. Le seul cas où la titan z est intéressant, c’est en cas de pénurie de slots pci-e ou de boitier trop petit, mais franchement, le prix ne se justifie pas face au coût d’un upgrade carte mère/boitier… sauf si le but est de mettre 8 gpu (ou plus) dans une seule machine.

votre avatar







tazvld a écrit :



Je considère les cartes de type “Titan” chez nvidia comme un posage de bite sur table pour dire à tout le monde “voila, nous on est capable de faire ce monstre, en en plus, elle n’est pas turgescente (pleine de liquide)”. Je ne crois pas que NVidia cherche à vraiment gagner de l’argent directement avec cette carte. C’est juste une preuve de leur compétence.







Comme tout les produits ultra haut de gamme de n’importe quel constructeur….



Exemple bagnolesque : Renault met toujours en avant des clio RS….


votre avatar







tazvld a écrit :



Je considère les cartes de type “Titan” chez nvidia comme un posage de bite sur table pour dire à tout le monde “voila, nous on est capable de faire ce monstre, en en plus, elle n’est pas turgescente (pleine de liquide)”. Je ne crois pas que NVidia cherche à vraiment gagner de l’argent directement avec cette carte. C’est juste une preuve de leur compétence.







Les titan/titan black sont de formidables aubaines pour les petites structures de prod audiovisuelle. Il n’y a pas si longtemps, ce type de matos était à des tarifs bien plus astronomiques.


votre avatar







athlon64 a écrit :



Deja bi-GPU <img data-src=" />







Non il a raison. Deux bi-gpus en sli, ça donne un quad sli.



Sinon ça fait du 4 way sli.









  • Et niveau tarifaire, pour les pros, cette cg n’est pas mal placée.


votre avatar







shadowfox a écrit :



“La carte a de mauvaises performances dans les jeux ? Et si on évitait de la faire tester ?”



Petit clin d’œil à ceux qui m’expliquaient que c’était une carte ultime pour jouer à des réso supérieure au full HD. <img data-src=" />







faudra qu’ils t’expliquent a quoi servent les 5760 cuda cores alors…. :/ cette carte est clairement destinée au cuda computing et non pas au jeu…


votre avatar







skyr-angel a écrit :



Non il a raison. Deux bi-gpus en sli, ça donne un quad sli.



Sinon ça fait du 4 way sli.









  • Et niveau tarifaire, pour les pros, cette cg n’est pas mal placée.





    Je pensais qu’il faisait allusion a en mettre 4 <img data-src=" /> (c’est possible d’ailleurs ce genre de truc ? y a pas de carte pour faire du 4 way sli ? )


votre avatar







athlon64 a écrit :



Je pensais qu’il faisait allusion a en mettre 4 <img data-src=" /> (c’est possible d’ailleurs ce genre de truc ? y a pas de carte pour faire du 4 way sli ? )







Bah après tu fais comme tu veux. Deux en quad sli. une pour physx. une pour d’autres écrans. ^^ A peine 12K pour 4 cg, une paille… :p



Sinon, possible quoi, le 4 way ? Bien sur. :) “Pleins” de cm le font. :)


votre avatar







YohAsAkUrA a écrit :



faudra qu’ils t’expliquent a quoi servent les 5760 cuda cores alors…. :/ cette carte est clairement destinée au cuda computing et non pas au jeu…







Je la voyais uniquement comme ça mais on m’expliquait que naaan, c’était du ultra haut de gamme pour le gaming aussi. Déjà que les jeux qui exploitent correctement les configs bigpu/SLI sont pas légions, 3000 euros pour du jeu non optimisé…


votre avatar







skyr-angel a écrit :



Bah après tu fais comme tu veux. Deux en quad sli. une pour physx. une pour d’autres écrans. ^^ A peine 12K pour 4 cg, une paille… :p



Sinon, possible quoi, le 4 way ? Bien sur. :) “Pleins” de cm le font. :)





Etant plus du coté rouge de la force, si je devais acheter une telle carte, ca serait plus une R9 295x2 <img data-src=" />



12000e tu te montes un PC de tueur avec ce prix la <img data-src=" />



Possible, mais après la gestion derrière ca doit pas etre de la tarte ? <img data-src=" /> et utile que pour du quadruple screen au minimum


votre avatar







athlon64 a écrit :



Je pensais qu’il faisait allusion a en mettre 4 <img data-src=" /> (c’est possible d’ailleurs ce genre de truc ? y a pas de carte pour faire du 4 way sli ? )







Bah histoire que tu ne te sentes plus honteux : tu avais raison, c’est ce que je voulais dire <img data-src=" />



En même temps je ne suis pas forcément au point sur ces termes. C’est pas comme si j’avais déjà eu assez d’argent pour mettre 4 CG dans mon PC ^^


votre avatar







athlon64 a écrit :



Etant plus du coté rouge de la force, si je devais acheter une telle carte, ca serait plus une R9 295x2 <img data-src=" />



12000e tu te montes un PC de tueur avec ce prix la <img data-src=" />



Possible, mais après la gestion derrière ca doit pas etre de la tarte ? <img data-src=" /> et utile que pour du quadruple screen au minimum







:p



Heu ouais enfin non, je mets ce fric la dans autre chose. ^^



Oui j’avoue que niveau driver je serais curieux de savoir si c’est déjà possible…


votre avatar







gogo77 a écrit :



Bah histoire que tu ne te sentes plus honteux : tu avais raison, c’est ce que je voulais dire <img data-src=" />



En même temps je ne suis pas forcément au point sur ces termes. C’est pas comme si j’avais déjà eu assez d’argent pour mettre 4 CG dans mon PC ^^





<img data-src=" />



Ca avait été dit sur l’autre news, mais deja pouvoir faire juste un SLI/CrossFire c’est deja pas mal, parce que niveau argent ca peut deja couter une blinde







skyr-angel a écrit :



:p



Heu ouais enfin non, je mets ce fric la dans autre chose. ^^



Oui j’avoue que niveau driver je serais curieux de savoir si c’est déjà possible…





La seul Nvidia que j’ai eu c’est une 6200 TurboCache et vu que ATI/AMD jamais de probleme je reste chez eux (pour le rapport perf/prix aussi)



Clairement, avoir ca a mettre dans un PC faut etre riche, en sachant que juste un quart peut largement suffire pour une bete de course.



Chez AMD y a le EyeInfinity, mais je ne sais pas le nombre max de CG prises en charge


votre avatar







athlon64 a écrit :



Chez AMD y a le Crossfire, mais je ne sais pas le nombre max de CG prises en charge





<img data-src=" />


votre avatar







djludo61 a écrit :



<img data-src=" />





Non je sais que c’est le CrossFire, mais pour la gestion du multi ecran, ils ont le EyeInfinity et je me demande combien de carte peut gérer ce truc ?


votre avatar







athlon64 a écrit :



La seul Nvidia que j’ai eu c’est une 6200 TurboCache et vu que ATI/AMD jamais de probleme je reste chez eux (pour le rapport perf/prix aussi)



Clairement, avoir ca a mettre dans un PC faut etre riche, en sachant que juste un quart peut largement suffire pour une bete de course.



Chez AMD y a le EyeInfinity, mais je ne sais pas le nombre max de CG prises en charge







Tians c’était ma première cg. ^^ Une daube. ^^



C’est net.



Aucune idée. :p


votre avatar







skyr-angel a écrit :



Tians c’était ma première cg. ^^ Une daube. ^^



C’est net.



Aucune idée. :p





En même temps, une CG entrée de gamme (enfin la première de la série 6xxx) le tout avec un nom totalement naze, tu vois Turbo youhou c’est de la bombe, qui a 64Mo de VRAM et partage le reste avec la RAM, faut pas s’attendre à beaucoup <img data-src=" />


votre avatar







skyr-angel a écrit :



Sinon, possible quoi, le 4 way ? Bien sur. :) “Pleins” de cm le font. :)





De mémoire les pilotes ne supportent pas plus que 4 GPU simultanément, donc seulement 2 cartes bi-GPU.


votre avatar







athlon64 a écrit :



Non je sais que c’est le CrossFire, mais pour la gestion du multi ecran, ils ont le EyeInfinity et je me demande combien de carte peut gérer ce truc ?







C’est ça, rattrappe toi comme tu peux. Sur ce coup ci compte pas sur moi pour me dénoncer. :joke:



Mais sinon blague à part, je crois que EyeFinity permet d’utiliser jusqu’à 6 écrans, que ce soit avec une carte ou plus.


votre avatar







gogo77 a écrit :



C’est ça, rattrappe toi comme tu peux. Sur ce coup ci compte pas sur moi pour me dénoncer. :joke:



Mais sinon blague à part, je crois que EyeFinity permet d’utiliser jusqu’à 6 écrans, que ce soit avec une carte ou plus.





<img data-src=" /> je suis pas fanboy AMD, mais j’aime bien ce qu’ils font niveau GPU donc je regarde de temps en temps (et puis les pilotes y a de la pub), le XFire c’est juste le pont entre les cartes, après pour le multiécran je m’attarde plus sur EyeInfinity <img data-src=" />



Justement 6 écrans, et que tu veux pouvoir jouer à un jeu sur les 6, faut beaucoup beaucoup de puissance, donc un plus grand nombre de GPU et combien max <img data-src=" />


votre avatar







athlon64 a écrit :



En même temps, une CG entrée de gamme (enfin la première de la série 6xxx) le tout avec un nom totalement naze, tu vois Turbo youhou c’est de la bombe, qui a 64Mo de VRAM et partage le reste avec la RAM, faut pas s’attendre à beaucoup <img data-src=" />







C’est pas faux ! <img data-src=" />







Ellierys a écrit :



De mémoire les pilotes ne supportent pas plus que 4 GPU simultanément, donc seulement 2 cartes bi-GPU.







D’accord. Donc mon pti montage à 12K n’est pas possible. :( <img data-src=" />


votre avatar







skyr-angel a écrit :



C’est pas faux ! <img data-src=" />





Ca existe encore les cartes a mémoire partagée comme ca ?







skyr-angel a écrit :



D’accord. Donc mon pti montage à 12K n’est pas possible. :( <img data-src=" />





J’étais donc pas fou <img data-src=" />


votre avatar







athlon64 a écrit :



Ca existe encore les cartes a mémoire partagée comme ca ?



J’étais donc pas fou <img data-src=" />







Je pense que l’on peut inclure les IGP intégrés aux procos dans le lot, donc oui. Et certains modèles mobiles aussi. Après en cg classiques, je ne pense pas. Mais je n’irais pas l’affirmer.



Après le quad sli et le 4 way existent hein. <img data-src=" /> Et les cm le permettant aussi !


votre avatar







skyr-angel a écrit :



Je pense que l’on peut inclure les IGP intégrés aux procos dans le lot, donc oui. Et certains modèles mobiles aussi. Après en cg classiques, je ne pense pas. Mais je n’irais pas l’affirmer.



Après le quad sli et le 4 way existent hein. <img data-src=" /> Et les cm le permettant aussi !





Je parle surtout en carte dédiée pas intégrée, ca se faisait beaucoup avant, maintenant la mémoire est pas très chere, je ne sais pas si y a un interet <img data-src=" />



Oui mais soit l’un soit l’autre, au final ca revient toujours à 4 GPU, donc soit 4 Titan soit 2 Titan Z, au choix <img data-src=" />


votre avatar







athlon64 a écrit :



Je parle surtout en carte dédiée pas intégrée, ca se faisait beaucoup avant, maintenant la mémoire est pas très chere, je ne sais pas si y a un interet <img data-src=" />



Oui mais soit l’un soit l’autre, au final ca revient toujours à 4 GPU, donc soit 4 Titan soit 2 Titan Z, au choix <img data-src=" />







Ouais justement je saurais pas te dire, mais je n’ai pas souvenir d’en avoir vu récemment. <img data-src=" />



Ou 4 780TI. <img data-src=" /> Ce qui serait mon choix si j’étais riche. <img data-src=" />


votre avatar

La taille de la carte. <img data-src=" />

votre avatar







athlon64 a écrit :



Je parle surtout en carte dédiée pas intégrée, ca se faisait beaucoup avant, maintenant la mémoire est pas très chere, je ne sais pas si y a un interet <img data-src=" />



Oui mais soit l’un soit l’autre, au final ca revient toujours à 4 GPU, donc soit 4 Titan soit 2 Titan Z, au choix <img data-src=" />





Si c’est pour du cuda, il me semble que cette limite n’existe pas… SLI, c’est pour synchroniser les cartes pour des tâches collaboratives de rendu. En CUDA, la distribution des tâches aux cartes n’a pas besoin de systèmes de synchro de ce genre.


votre avatar







ragoutoutou a écrit :



Si c’est pour du cuda, il me semble que cette limite n’existe pas… SLI, c’est pour synchroniser les cartes pour des tâches collaboratives de rendu. En CUDA, la distribution des tâches aux cartes n’a pas besoin de systèmes de synchro de ce genre.



Amha, pour du CUDA, je pense que dans le budget initial, il y a un plus grand intérêt à prévoir d’abord un boitier d’extension pour CG, type Cubix Expander, plutôt que de sauter sur des trucs bi GPU qui en plus sont chers, juste pour une économie de places PCIe… Libre après à chacun d’y mettre ce genre de bête aussi…


votre avatar

Je rêve d’une config bi-CPU (Intel® Xeon E7-8890 v2) et bi-GPU avec 2 Titan Z.



Ça coûte 20 000€ certes, mais avec on peux tout faire <img data-src=" />



4 GPU et 30 coeurs (60 threads) <img data-src=" />



EDIT : Ça existe les cartes mères quad CPU ?

votre avatar







renaud07 a écrit :



EDIT : Ça existe les cartes mères quad CPU ?







C’est bon j’ai ma réponse, désolé pour le dérangement <img data-src=" />


votre avatar







skyr-angel a écrit :



Ouais justement je saurais pas te dire, mais je n’ai pas souvenir d’en avoir vu récemment. <img data-src=" />



Ou 4 780TI. <img data-src=" /> Ce qui serait mon choix si j’étais riche. <img data-src=" />







Je suis en SLI (2x GTX670 4GB) et au final, je ne referai pas ce choix. Les jeux sont mal optimisés voir mieux plantent quand le SLI est activé pour peu qu’il y ait un problème au niveau de la version des drivers. Au départ tu penses que tu vas envoyer du lourd et après coup, ben sans plus et pas mla de prises de tête pour résoudre les problèmes pour jouer normalement.


votre avatar







Zorglob a écrit :



Amha, pour du CUDA, je pense que dans le budget initial, il y a un plus grand intérêt à prévoir d’abord un boitier d’extension pour CG, type Cubix Expander, plutôt que de sauter sur des trucs bi GPU qui en plus sont chers, juste pour une économie de places PCIe… Libre après à chacun d’y mettre ce genre de bête aussi…





Et bien, ça se discute… si c’est pour se contenter de 8GPU avec une carte mère qui possède 4 slots 16x, le Cubix Expander aura peu d’intérèt vu qu’à lui seul il coûtera déjà le prix de la Titan Z, et que avec une cm 4 slots 16x, on ne pourra mettre que sept gpu dont quatre avec une bande passante partagée.

Maintenant, si c’est pour bosser avec 16 gpu, il vaut peut-être mieux commencer à monter des machine en cluster, ça coutera moins cher.


votre avatar







tazvld a écrit :



Je considère les cartes de type “Titan” chez nvidia comme un posage de bite sur table pour dire à tout le monde “voila, nous on est capable de faire ce monstre, en en plus, elle n’est pas turgescente (pleine de liquide)”. Je ne crois pas que NVidia cherche à vraiment gagner de l’argent directement avec cette carte. C’est juste une preuve de leur compétence.





Tout à fait, c’est vraiment le “Channel” de la CG : on cherche le prestige et la vitrine techno avant tout.

Par contre le posé de bite avec des cartes bi-GPU je dis non! <img data-src=" />

Déjà on se retrouve avec tous les défaut des système bi-GPU (pour les jeux), notamment les performances variables et très dépendantes des optimisations des pilotes.

Ensuite ce genre de carte ne permet pas de mesurer l’efficacité d’une archi GPU, contrairement à la carte mono-GPU la plus puissante. Ici on mesure plutôt la capacité du constructeur à faire un très bon système de refroidissement.



En résumé pour cette Titan, tu te retrouve avec un système bi-GPU (et ses défaut en jeu), qui est moins performants (downclocking) que 2 cartes séparées et qui est plus cher. <img data-src=" />







ragoutoutou a écrit :



Mais on peut avoir de meilleurs perfs en mettant deux titan black dans le pc, et pour moins cher. Le seul cas où la titan z est intéressant, c’est en cas de pénurie de slots pci-e ou de boitier trop petit, mais franchement, le prix ne se justifie pas face au coût d’un upgrade carte mère/boitier… sauf si le but est de mettre 8 gpu (ou plus) dans une seule machine.





Je suis entièrement d’accord, les pros peuvent être intéressé par une carte type Titan Z pour accélérer leurs calculs sans aller taper dans la gamme quadro, qui est hors de prix (si si même comparé à une Titan). Mais avoir 2 titan sous-cadencée en une, je vois pas trop l’intêret, mis à part les situations que tu décris :)







athlon64 a écrit :



Je pensais qu’il faisait allusion a en mettre 4 <img data-src=" /> (c’est possible d’ailleurs ce genre de truc ? y a pas de carte pour faire du 4 way sli ? )





La plupart des cartes en X79 permettent le 4-Way SLi.

C’est quasiment impossible sur le Z87/97, car le chipset ne gère que 16 lignes PCie 3.0 + 8 PCIe 2.0 (via southbridge). Les performances seraient trop bridées pour du 4Way SLi en 4x.







Ellierys a écrit :



De mémoire les pilotes ne supportent pas plus que 4 GPU simultanément, donc seulement 2 cartes bi-GPU.





Exact, pour un Système SLi/CFX. Pour du GPGPU, rien n’empêche de poser plus de GPU (les mineurs de haroucoin ne s’en privent d’ailleurs pas <img data-src=" />)

Aussi le rendement de 3 cartes par rapport à 2 est déjà pas bien glorieux, mais 4GPu par rapport à 3, à part un lots d’emmerde, ça n’apporte pas grand chose.







renaud07 a écrit :



Je rêve d’une config bi-CPU (Intel® Xeon E7-8890 v2) et bi-GPU avec 2 Titan Z.

Ça coûte 20 000€ certes, mais avec on peux tout faire <img data-src=" />





le moment où tu te rends compte qu’une bécane 6 fois moins chère crache plus de FPS, ça n’a pas de prix! :français:


votre avatar







shadowfox a écrit :



Je suis en SLI (2x GTX670 4GB) et au final, je ne referai pas ce choix. Les jeux sont mal optimisés voir mieux plantent quand le SLI est activé pour peu qu’il y ait un problème au niveau de la version des drivers. Au départ tu penses que tu vas envoyer du lourd et après coup, ben sans plus et pas mla de prises de tête pour résoudre les problèmes pour jouer normalement.







Je sais bien, mon dernier sli était sur une Venus, avec des 7950 GT 512.



Rahhh… Souvenirs…


votre avatar







shadowfox a écrit :



Je suis en SLI (2x GTX670 4GB) et au final, je ne referai pas ce choix. Les jeux sont mal optimisés voir mieux plantent quand le SLI est activé pour peu qu’il y ait un problème au niveau de la version des drivers. Au départ tu penses que tu vas envoyer du lourd et après coup, ben sans plus et pas mla de prises de tête pour résoudre les problèmes pour jouer normalement.







Cheminement inverse mais moi aussi j’ai souvent pensé et été tenté à rajouter une carte à ma carte vieillissante en me disant tiens en duo peut-être que ça va me donner un peu de répit …

Mais au final c’est mieux d’investir dans une carte milieu de gamme ( en rapport qualité/prix ) comme la tienne car drivers un peu bof et encore pire concernant les jeux …



Avec plus tard l’espoir de se dire qu’une fois vieille ptet on pourra lui rajouter une soeur jumelle pour gagner du temps … et hop rebelote mieux vaux acheter une nouvelle carte et ainsi de suite <img data-src=" />

Au final j’ai jamais possédé de Sli ou de Crossfire..


votre avatar

La GTX Titan a déjà été chauffée officieusement :)

http://videocardz.com/50491/first-nvidia-geforce-gtx-titan-z-review-leaks



Même en 4-SLI

youtube.com YouTube<img data-src=" />

votre avatar

<img data-src=" />

Le dernier lien est une GTX Titan sorry <img data-src=" />

Je rectifie

youtube.com YouTube

La GeForce GTX Titan Z est officielle, mais aucun test n’est en ligne

  • Une carte ultime et sans watercooling, à un tarif exorbitant

  • La carte a de mauvaises performances dans les jeux ? Et si on évitait de la faire tester ?

Fermer