Connexion
Abonnez-vous

AMD et NVIDIA sur le point de lancer leurs nouvelles cartes graphiques

Parés pour accompagner le X99

AMD et NVIDIA sur le point de lancer leurs nouvelles cartes graphiques

Le 01 août 2014 à 14h53

Alors que l'été bat son plein, et que nombre d'entre vous sont en train de siroter des cocktails sur les plages de sable chaud, ça bosse dur du côté des fabricants de GPU. En effet, tant AMD que NVIDIA préparent le terrain pour leurs nouveaux modèles, mais ils feront une fois de plus sans la gravure en 20 nm.

Si le marché des cartes graphiques est plutôt morose, AMD et NVIDIA vont tenter de profiter des mois qui viennent pour redonner un peu de pep's à leurs gammes. Ainsi, comme pour accompagner le lancement du X99 d'Intel, chacun se prépare à mettre sur le marché de nouveaux GPU.

 

Le premier à frapper sera AMD avec ses Radeon R9 285 et 285X. Celles-ci arriveront dès la mi-août pour le premier modèle, et seront l'occasion de découvrir les puces de la génération Tonga (Pro et XT). Le but sera de faire le lien entre les produits inférieurs, déjà renommés moult fois, et les R9 29x qui visent le haut de gamme. De quoi savonner la planche des éventuelles GeForce aux alentours de 200 euros à base de puce Maxwell.

 

Radeon R9 280X 

Certaines Radeon d'AMD ont déjà été renommées de nombreuses fois

 

NVIDIA de son côté ouvrira le bal seulement en septembre. Certains, comme Videocardz, indiquent que c'est la Geforce GTX 880 qui sera la première à se montrer. Une chose est sûre : ce ne sera pas la seule. Ainsi, des produits devraient être dévoilés jusqu'à la fin de l'année, afin de multiplier les annonces et marquer les esprits pour la grande période commerciale de l'année qui débutera dès novembre, mais se prépare dès maintenant.

Commentaires (67)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







FRANCKYIV a écrit :



Marchi pour la réponse :)



Ca veut dire quoi DP ?





Display Port <img data-src=" />


votre avatar

Étant toujours en mini ITX, je ne changerai pas sans amélioration de la finesse de gravure.



Ma GTX 680 en 1293Mhz / 1625Mhz watercoolée a encore de bonnes heures devant elle.

votre avatar







Firefly’ a écrit :



Display Port <img data-src=" />







ok marchi :)


votre avatar

Watch Dogs, je le tourne en ultra avec une 7950.

Donc pour le moment, je suis loin d’avoir le besoin de changer de carte graphique…

votre avatar

Moi ma GTX 560 Ti fonctionne encore bien, je ne ressent pas le besoin de changer. <img data-src=" />

votre avatar

Rien de bien révolutionnaire, il serait grand temps que les constructeurs fasse quelques avancées spectaculaires au niveau des performances de leurs cartes <img data-src=" />

votre avatar

Il faudrait faire un test pour savoir laquelle fera chauffage d’appoint pour cet hiver.

votre avatar







zicklon a écrit :



Rien de bien révolutionnaire, il serait grand temps que les constructeurs fasse quelques avancées spectaculaires au niveau des performances de leurs cartes <img data-src=" />







Pour ça, il faudrait que Intel leur ouvre ses chaines de fabrication en 0.22 Tri-Gate <img data-src=" />



Car en 0.28 SOI, on se retrouve avec de vrai radiateur.



Il est loin le temps de la Radeon 9700pro qui avait doubler les perf de la R8500 tout en étant moins cher que la FXjesaispluscombien <img data-src=" />


votre avatar

j’attendrai une occasion , je viens de prendre une 660 ti d’occase a 100 boules, ça me suffira pour un bout de temps.

En tout cas hâte de voir ce que maxwell offre de plus.

votre avatar

Est-ce qu’on arrivera à tourner the witcher 3 correctement <img data-src=" />



@Aldayo : Le tri-gate génère aussi de la chaleur ( faudrait l’avis d’un expert ), mais c’est vrai qu’on consomme moins :)

votre avatar

Je sais que ça n’a rien a voir mais quelle est la carte la plus puissante de VIA ou

Matrox? Je sais que pour le second c’est plutot du multiaffichage mais en performance brute pour les jeux ?

votre avatar







arkansis a écrit :



Étant toujours en mini ITX, je ne changerai pas sans amélioration de la finesse de gravure.



Ma GTX 680 en 1293Mhz / 1625Mhz watercoolée a encore de bonnes heures devant elle.





Rien avoir mais c’est la première fois que je lis ce pseudo sur un autre site qu’un site spécialisé en F1… Fan de F1 ou coïncidence ? <img data-src=" />


votre avatar







kamuisuki a écrit :



Je sais que ça n’a rien a voir mais quelle est la carte la plus puissante de VIA ou

Matrox? Je sais que pour le second c’est plutot du multiaffichage mais en performance brute pour les jeux ?







Pour Matrox, leur dernière carte dont la puissance permettait de jouer dans de bonnes conditions, c’était la Parhelia. Ca fait longtemps…





votre avatar







sr17 a écrit :



Pour Matrox, leur dernière carte dont la puissance permettait de jouer dans de bonnes conditions, c’était la Parhelia. Ca fait longtemps…





La 400 sortie en 2001 ? <img data-src=" />


votre avatar







kamuisuki a écrit :



La 400 sortie en 2001 ? <img data-src=" />







La G400 était vraiment la meilleure carte de l’époque.



Après, ils ont sorti la Parhelia qui était une bonne carte mais qui était beaucoup trop onéreuse pour rencontrer le succès.



votre avatar







sr17 a écrit :



La G400 était vraiment la meilleure carte de l’époque.



Après, ils ont sorti la Parhelia qui était une bonne carte mais qui était beaucoup trop onéreuse pour rencontrer le succès.





C’est dommage , comme il y a plus de 3eme concurrent, les deux avancent au ralenti..


votre avatar







kamuisuki a écrit :



C’est dommage , comme il y a plus de 3eme concurrent, les deux avancent au ralenti..





Il y a bien Intel qui arrive. Enfin, euh…



intel.com Intel



Doucement en tout cas. <img data-src=" />



Ils devraient faire dans le dedicated multi GPUs pour le fun, ils ne sont pas à quelques milliards près. <img data-src=" />



Je reste convaincu qu’ils vont finir par acheter nVidia. <img data-src=" />


votre avatar







[_Driltan_ a écrit :



]

Il y a bien Intel qui arrive. Enfin, euh…



intel.com Intel



Doucement en tout cas. <img data-src=" />





C’est vrai qu’ils ont reduit un peu leur écart mais bon , avec un I7 et la carte integée je fais pas tourner grand chose encore de récent.


votre avatar

A part nVidia et ATi ou Intel ya rien d’autre !!

pas de nouveaux Leader dans ce Monde de Carte GFX….<img data-src=" />

votre avatar

Ils n’ont rien compris chez AMD!

ils vont avoir 2 ou 3 finesse de retard par rapport à Intel et nvidia!

votre avatar

Je ne vois pas l’interet, a l’heure actuelle la next gen stagne et maintenant rien ne justifie vraiment l’investissement d’une carte 700+

Bref. Ma 680 je l’ai acheté au bon moment et je pense qu’elle va rester dans ma tour encore facilement 5 ans

votre avatar

Bon sang j’ai ri !!!!! <img data-src=" />



http://www.hardware.fr/articles/925-1/nvidia-geforce-gtx-titan-z-carte-graphique…



Même si les drivers ne sont pas au poil, c’est le pire fail que j’ai jamais vu. <img data-src=" />

votre avatar







[_Driltan_ a écrit :



]Bon sang j’ai ri !!!!! <img data-src=" />



http://www.hardware.fr/articles/925-1/nvidia-geforce-gtx-titan-z-carte-graphique…



Même si les drivers ne sont pas au poil, c’est le pire fail que j’ai jamais vu. <img data-src=" />







Tu m’en mettras deux … c’est pour du SLI … <img data-src=" />


votre avatar







FRANCKYIV a écrit :



Tu m’en mettras deux … c’est pour du SLI … <img data-src=" />





<img data-src=" /> Mer il et fou !


votre avatar







[_Driltan_ a écrit :



]

<img data-src=" /> Mer il et fou !







Adresse Web :

youtube.com YouTube<img data-src=" />





<img data-src=" />


votre avatar

Parfait, dans 2 ans une 860 fanless sortira et je pourrai enfin changer <img data-src=" />



D’ici à ce que tout compte fait ils nous fassent du rebranding et colle encore un Kepler un peu boosté, je ne serais pas surpris!

Après tout, n’est-ce pas déjà PCI qui nous avait annoncé que tout compte fait les séries 8XX sur Maxwell devaient être attendues en 2015 ? … ou bien ma mémoire me trompe ?









mamath7 a écrit :



Le monde des CG est un éternel recommencement: le même schéma se répète encore et encore…





Oui, annonce en août, pour faire saliver provoquer un effet de manque, puis retard de 2 mois pour que les plus impatients craquent sur les vielles technologies … histoire de refourguer les merdes et les rentabiliser un peu plus.

Puis on balance en fanfare des produits mal finis et les adopteurs hatifs en sont pour leur frais.

Au final, la disponibilité est réelle et les prix sont abordables passé les fêtes de fin d’année, soit vers le 15 janvier.

Je dois commencer à veillir.









chaps a écrit :



La GTX 880 me fera enfin, peut-être, lâcher mes viellissantes GTX 480 <img data-src=" />





Tu as déjà la puissance d’une GTX 750. Qui est assi bien que ma HD 6850 (shit à celui qui râlera en se reconnaissant). De ce que j’en vois, si sous Linux c’est la chiotte du fait des drivers, sous Windows, ça suffit largement.


votre avatar







luxian a écrit :



Tu as déjà la puissance d’une GTX 750. Qui est assi bien que ma HD 6850 (shit à celui qui râlera en se reconnaissant). De ce que j’en vois, si sous Linux c’est la chiotte du fait des drivers, sous Windows, ça suffit largement.







Je joue en 2560x1600 (ou parfois en 1920x1080, mais avec 3DVision), du coup même mon SLI de GTX480 tire parfois un peu la langue :-p


votre avatar







chaps a écrit :



Je joue en 2560x1600 (ou parfois en 1920x1080, mais avec 3DVision), du coup même mon SLI de GTX480 tire parfois un peu la langue :-p







Oups, c’est quoi ton écran dis ?



En 27”, je suis très satisfait de 1920x1080 depuis des lustres, plus donnerait un affichage trop petit.


votre avatar







luxian a écrit :



Oups, c’est quoi ton écran dis ?



En 27”, je suis très satisfait de 1920x1080 depuis des lustres, plus donnerait un affichage trop petit.







J’ai un Dell 3007WFP HC <img data-src=" />

Ca va faire 7 ans que je l’ai (la première fois que je l’ai branché, c’était sur une 6800GT <img data-src=" />)


votre avatar

PS : J’ai également un Alienware OptX AW2310 en écran secondaire pour jouer en 3DVision <img data-src=" />

votre avatar

Perso j’attends the witcher 3 afin de voir ce qui est nécessaire pour une bonne immersion <img data-src=" /><img data-src=" />



Ou sinon dès que les écrans 4K 120Hz avec gsync (ou équivalent amd) arrivent en 30” ça peut déclencher l’achat aussi…

votre avatar







yvan a écrit :



Ou sinon dès que les écrans 4K 120Hz avec gsync (ou équivalent amd) arrivent en 30” ça peut déclencher l’achat aussi…







Vu le prix, j’suis pas sûr … <img data-src=" />


votre avatar

Le monde des CG est un éternel recommencement: le même schéma se répète encore et encore…

votre avatar

J’espère qu’il y a aura une GeForce Titanausaurus à 2k :bave:

votre avatar

GTX 870 ou Ps4 <img data-src=" />


votre avatar







XalG a écrit :



J’espère qu’il y a aura une GeForce Titanausaurus à 2k :bave:







2000€ ? C’est de la carte de prolos ça ! <img data-src=" />


votre avatar

Need des Maxwell moyen de gamme à consommation contenu !



Ca plus les Haswell qui ont fait des progrès de consommation par rapport au C2D, je vais peut-être enfin pouvoir débarrasser mon PC de sa fonction chauffage (fort mal venu par ce temps estival).

votre avatar







von-block a écrit :



GTX 870 ou Ps4 <img data-src=" />







Il y a même pas la question a se posé la 870 qui doit être 50x plus puissante que la ps4 lol.


votre avatar







von-block a écrit :



GTX 870 ou Ps4 <img data-src=" />







Celle là est bien bonne <img data-src=" />


votre avatar



découvrir les puces de la génération Tsonga (Pro et XT)





On pourra faire du tennis avec?

<img data-src=" />

votre avatar

Est-ce qu’on pourra enfin jouer à Watchdogs avec un framerate correct? <img data-src=" />

votre avatar







Warchest a écrit :



Il y a même pas la question a se posé la 870 qui doit être 50x plus puissante que la ps4 lol.









sniperdc a écrit :



Celle là est bien bonne <img data-src=" />







<img data-src=" />


votre avatar

La GTX 880 me fera enfin, peut-être, lâcher mes viellissantes GTX 480 <img data-src=" />

votre avatar

Vivement Pascal !



20162017

nVidia sort Pascal –&gt; Flop

AMD &gt; nVidia

Intel rachète nVidia

AMD rachète VIA

La (vraie) concurrence repart !

<img data-src=" />

votre avatar







DarkMoS a écrit :



Est-ce qu’on pourra enfin jouer à Watchdogs avec un framerate correct? <img data-src=" />







Ma GTX 780 n’a pas de problème. :o


votre avatar







Malesendou a écrit :



Ma GTX 780 n’a pas de problème. :o





En Low ça compte pas. <img data-src=" />


votre avatar

On pourra revoir des benchs, ça commençait à faire un petit bout de temps qu’on en avait plus de significatifs en GPU.



<img data-src=" />

votre avatar







[_Driltan_ a écrit :



]

En Low ça compte pas. <img data-src=" />







C’est pas ce que l’on pensait Watch Dogs hein… Finalement, c’est limite de la rigolade.


votre avatar







Malesendou a écrit :



C’est pas ce que l’on pensait Watch Dogs hein… Finalement, c’est limite de la rigolade.





Ubisoft, pourtant ils font dans le fist et ils y vont jusqu’à l’épaule. <img data-src=" />


votre avatar

Tiens j’aurais une question … est-ce que les dernières carte Nvidia gère le multi-écrans (genre 3 écrans simultanément).



J’étais passé à AMD/ATI à cause de ça … mais si ça revient sur Nvidia je préfère avec la gestion CUDA :)

votre avatar







Malesendou a écrit :



C’est pas ce que l’on pensait Watch Dogs hein… Finalement, c’est limite de la rigolade.









[_Driltan_ a écrit :



]

Ubisoft, pourtant ils font dans le fist et ils y vont jusqu’à l’épaule. <img data-src=" />





Si on te chatouille les amygdales de l’intérieur, ça te fait rigoler.

<img data-src=" /> + <img data-src=" /> = <img data-src=" />



C’est bien connu <img data-src=" />

Il me semble que la mise au poing était tout de même nécessaire <img data-src=" />²


votre avatar

Hâte de voir la GTX 870 et ce qu’elle va proposer. Si son prix est pas trop élevé (de la part de nVidia j’ai quand même des doutes), je la prendrais pour remplacer dans un ans ma 770 4 Go. :)

votre avatar







ludo0851 a écrit :



Si on te chatouille les amygdales de l’intérieur, ça te fait rigoler.

<img data-src=" /> + <img data-src=" /> = <img data-src=" />



C’est bien connu <img data-src=" />

Il me semble que la mise au poing était tout de même nécessaire <img data-src=" />²





<img data-src=" />


votre avatar

Je need une nouvelle carte pour jouer en 4k, ma HD7870 GHZ n’est pas assez puissante.

D’un autre coté je me demande si c’est vraiment rentable de changer pour une 290X, elle est plus puissante et a un bus mémoire adapté, mais elle n’apporte rien d’un point de vue technologie.

Dernier argument pour la 290X, il ne me manque pas grand chose pour pouvoir jouer à D3 tout à fond en 4K, avec elle ca devrait passer.

votre avatar

Arghhh, je ne veux pas changer mon Alienware m15X, mais ma GTX460m commence à se faire vieille…

votre avatar







FRANCKYIV a écrit :



Tiens j’aurais une question … est-ce que les dernières carte Nvidia gère le multi-écrans (genre 3 écrans simultanément).



J’étais passé à AMD/ATI à cause de ça … mais si ça revient sur Nvidia je préfère avec la gestion CUDA :)









si tu parle de jouer en 5760x1080 par exemple j’en sais rien mais sinon si c’est juste pour plusieurs moniteurs bête et méchant, les multiples prises dvi & co servent à ça depuis l’an 2000 <img data-src=" />


votre avatar

Rien de neuf finalement si ce n’est une volonté d’occuper l’espace médiatique.

<img data-src=" />

votre avatar







Rokin a écrit :



si tu parle de jouer en 5760x1080 par exemple j’en sais rien mais sinon si c’est juste pour plusieurs moniteurs bête et méchant, les multiples prises dvi & co servent à ça depuis l’an 2000 <img data-src=" />







Ben je pose la question, car à l’époque on me disait que malgré toutes les prises disponibles, on ne pouvait pas faire de multi-écran avec Nvidia.



C’est pour ça que j’avais acheté une AMD/ATI Radeon 6970.


votre avatar

ca m’embete de payer une 880 des sa sortie car j’imagine que le prix va baisser quelque mois plus tard, mais bon entre mon oculus dk2 , mon pledge de star citizen, watch dogs … ma gtx 560, même OC elle tiens plus la, j’ateind a peine les 30fps

votre avatar







FRANCKYIV a écrit :



Tiens j’aurais une question … est-ce que les dernières carte Nvidia gère le multi-écrans (genre 3 écrans simultanément).



J’étais passé à AMD/ATI à cause de ça … mais si ça revient sur Nvidia je préfère avec la gestion CUDA :)





Jusqu’à 4 par carte depuis Kepler de mémoire, et sans DP obligatoire :)


votre avatar







David_L a écrit :



Jusqu’à 4 par carte depuis Kepler de mémoire, et sans DP obligatoire :)







Marchi pour la réponse :)



Ca veut dire quoi DP ?


votre avatar







FRANCKYIV a écrit :



Vu le prix, j’suis pas sûr … <img data-src=" />





Faut que ça reste autour des 1000€ tout compris disons mais vu le temps que je passe devant ça ne pose pas trop de pb, le rapport usage/cout sera de toutes manières bien meilleur que bien d’autres loisirs.


votre avatar







yvan a écrit :



Faut que ça reste autour des 1000€ tout compris disons mais vu le temps que je passe devant ça ne pose pas trop de pb, le rapport usage/cout sera de toutes manières bien meilleur que bien d’autres loisirs.







Adresse Web :

http://www.ldlc.com/fiche/PB00152373.html



C’est plus de l’ordre de 2000 € un 30 pouces 4K …


votre avatar







FRANCKYIV a écrit :



Adresse Web :

http://www.ldlc.com/fiche/PB00152373.html



C’est plus de l’ordre de 2000 € un 30 pouces 4K …





C’est pas un écran de joueur (dalle TN) ça. Donc en effet c’est plutôt cher alors que les angles de vision et la justesse colorimétrique sont pas essentiels pour moi.



Je pensais plus à une version 30” 4K de ça

nextinpact.com Next INpact



Effectivement ce sera vraissemblablement plus dans les 1500€ que les 1000€. <img data-src=" />


votre avatar







luxian a écrit :



Je dois commencer à veillir.





Arrête m’en parle pas…


votre avatar







mamath7 a écrit :



Arrête m’en parle pas…







Faut des lunettes à papy pour voir son écran 4k ?!?!?



<img data-src=" />


votre avatar







FRANCKYIV a écrit :



Faut des lunettes à papy pour voir son écran 4k ?!?!?



<img data-src=" />





Du coup OBLIGE d’avoir un écran de plus de 2m de diagonale tu comprends…

pas le choix

Vilain caribou va!


AMD et NVIDIA sur le point de lancer leurs nouvelles cartes graphiques

Fermer