Connexion
Abonnez-vous

GeForce GTX 980 vs RTX 3070 : match de cartes graphiques à 520/540 euros, à 6 ans d’intervalle

Spoiler : c'est la plus récente qui gagne

GeForce GTX 980 vs RTX 3070 : match de cartes graphiques à 520/540 euros, à 6 ans d'intervalle

Le 30 novembre 2020 à 13h44

Une GeForce RTX 3070 fait presque jeu égal avec une RTX 2080 Ti, nous l'avons vu lors de notre test. Mais qu'apporte-t-elle réellement par rapport à un modèle vendu au même prix d'il y a quelques années ? Pour le savoir, nous l'avons opposée à une GeForce GTX 980 annoncée en 2014.

Lorsque nous analysons des composants informatiques, nous avons tendance à décortiquer leurs performances par rapport à la concurrence ou la génération précédente. Mais dans la pratique, les utilisateurs ne changent de CPU ou de GPU qu'au bout de quelques années. Surtout lorsqu'il s'agit de modèle à plusieurs centaines d'euros.

Régulièrement, certains lecteurs évoquent d'ailleurs leur impression de performances qui n'évoluent pas, ou peu. Qu'ils assistent surtout à une hausse des prix, à des améliorations sur des sujets annexes (gestion de l'énergie, fonctionnalités, etc.). Bref, qu'ils ne seraient pas toujours gagnants dans les évolutions régulières.

Pour le vérifier, nous avons décidé de nous pencher sur des produits annoncés récemment et de les opposer à leurs équivalents mis sur le marché il y a quelques années pour un tarif similaire. Est-ce qu'avec le recul nous aurions intérêt à effectuer une mise à jour ? Voici une question... qui ne sera pas toujours vite répondue.

Nous commençons aujourd'hui avec la GeForce RTX 3070 de NVIDIA, opposée à la GeForce GTX 980.

Maxwell v2, une autre époque

Cette dernière a été lancée en septembre 2014. On découvrait alors une nouvelle puce exploitant la seconde itération de l'architecture Maxwell : le GM204. Cette génération était surtout l'occasion d'un grand bond en efficacité pour NVIDIA, qui annonçait passer de 15 à 30 GFLOPS par watt.

Un chiffre à remettre dans le contexte de l'époque. La GeForce GTX 980 est alors l'un des modèles les plus puissants sur le marché avec ses 5 TFLOPS, 4 Go de mémoire et 165 watts consommés au compteur. Elle nécessite alors deux connecteurs PCIe à 6 broches pour être alimentée. Elle était annoncée à 542 euros en France.

Elle sera supplantée quelques mois plus tard par la Titan X, ses 12 milliards de transistors, 7 TFLOPS et 12 Go de mémoire. Une carte très haut de gamme annoncée à l'époque à 999 dollars, mais disponible dès 1 230 euros en France. En juin 2015, la GTX 980 Ti est mise sur le marché à 749 euros : 6 TFLOPS pour 250 watts (27,5 GFLOPS/W).

GeForce RTX 3070 GTX 980

La remplaçante de la GTX 980 ? La RTX 3070

Septembre 2020, trois générations d'architecture plus tard, NVIDIA annonce ses GeForce RTX de série 30. Il y a en effet eu Pascal et Turing avant Ampere. Et à partir de 519 euros, on a désormais droit à une RTX 3070.

La puce n'a rien à voir. Exit la gravure en 28 nm, on est en 8 nm. Le GA104 compte pas moins de 17,4 milliards de transistors dans 393 mm² contre 5,2 milliards dans 394 mm² pour le GM104. La taille de la puce est presque identique, mais la densité trois fois supérieure. La puissance de calcul a, elle, été multipliée par quatre avec 5 888 CUDA Cores pour 20,2 TFLOPS et 220 watts, soit 92 GFLOPS/W. L'efficacité a donc, elle aussi, été multipliée par trois.

Ce, sans parler des RT/Tensor Cores qui accélèrent IA et ray tracing. L'interface mémoire est toujours sur 256 bits, mais avec ses 8 Go de GDDR6 la RTX 3070 annonce 448 Go/s, le double de la GTX 980 et ses 4 Go de GDDR5 : 224 Go/s.

Machine de test et consommation

Imaginons maintenant qu'un utilisateur vient de se payer une machine flambant neuve (ou presque), à base de Ryzen 5 5600XT, avec une carte mère B450M Pro 4 ASRock, 16 Go de DDR4, un SSD, le tout installé sous Windows 10. Ne reste plus qu'à mettre à jour la carte graphique. Qu'apportera le passage d'une GTX 980 à une RTX 3070 ?

Pour le savoir, nous avons monté une telle machine, avec le dernier pilote graphique en date (Game Ready). Commençons nos tests par un point qui n'a rien d'anodin, la consommation à la prise. Nous l'avons relevée au repos, en pleine charge GPU, dans le benchmark Superposition d'Unigine (1080p Extreme) puis lors d'un rendu OptiX sous Blender 2.91 (bmw27). Il s'agit toujours d'une valeur moyenne dans l'ensemble de la scène.

  • Consommation au repos :
    • GeForce GTX 980 : 48 watts
    • GeForce RTX 3070 : 46 watts
  • Consommation Blender 2.91 :
    • GeForce GTX 980 : 197 watts
    • GeForce RTX 3070 : 239 watts

Comme on peut le voir, au repos on ne gagne que quelques watts, les efforts en la matière étant importants depuis des années déjà, tant chez AMD que chez NVIDIA. On reste donc sensiblement au même niveau.

Sous Blender, c'est différent : la consommation grimpe. Logique puisque le TGP (Total Graphic Power) annoncé est plus élevé. Ici, on relève 42 watts de plus, soit une augmentation de 21 %. Mais il ne faut pas s'y tromper, ce n'est pas une mauvaise nouvelle. Car comme nous le verrons plus loin, le rendu est effectué bien plus vite.

Ainsi, 1,13 Wh est nécessaire avec la GeForce RTX 3070 contre 9,89 Wh pour la GTX 980. Soit... 8,8 fois moins.

  • Consommation Unigine Superposition :
    • GeForce GTX 980 : 252 watts
    • GeForce RTX 3070 : 315 watts

Même chose dans le benchmark 3D, avec une hausse de 63 watts cette fois. Mais la RTX 3070 ne nécessite que 5,44 joules par image contre 14,89 joules par image pour la GTX 980. C'est 2,73 fois moins important. Ce, malgré le fait que nos relevés sont effectués à la prise, et prennent donc en compte la consommation de tous les composants et pas seulement l'énergie nécessaire au fonctionnement de la carte graphique. Ce qui amoindri le gain observé.

3DMark et Unigine, pour commencer

Comme pour tout test de GPU, passons maintenant à deux benchmarks phares, à commencer par 3DMark et sa scène Time Spy qui exploite un rendu DirectX 12 en 1440p. Comme à notre habitude, nous ne relevons pas ici le score global, mais le résultat en images par seconde des deux tests graphiques :

  • Time Spy GT1 :
    • GeForce GTX 980 : 26,82 ips
    • GeForce RTX 3070 : 88,91 ips
  • Time Spy GT2 :
    • GeForce GTX 980 : 23,63 ips
    • GeForce RTX 3070 : 76,17 ips

Ici le résultat est sans appel : la petite nouvelle est 3,2/3,3 fois plus performante. C'est un peu moins que l'évolution de la puissance de calcul (x4), puisque certaines des unités FP32 d'Ampere peuvent être également utilisées pour du calcul INT32, réduisant alors le gain observé. Il est tout de même impressionnant pour une puce de même taille.

On passe maintenant au Superposition Benchmark du moteur Unigine en 1080p mais dans deux modes : Medium et Extreme. Cette fois, on utilise un rendu OpenGL plutôt que DirectX :

  • 1080p Medium (OpenGL) :
    • GeForce GTX 980 : 61,41 ips
    • GeForce RTX 3070 : 156,91 ips
  • 1080p Extreme (OpenGL) :
    • GeForce GTX 980 : 16,92 ips
    • GeForce RTX 3070 : 57,86 ips

Ici, c'est un peu différent. Dans le premier cas qui n'est pas très gourmand, le gain apporté par la GeForce RTX 3070 n'est « que » de 2,6x contre 3,4x pour la scène « Extreme ». Cela devrait être plus représentatif de ce que nous observerons dans les jeux : lorsque le GPU est très sollicité on sera dans le second cas, sinon dans le premier.

Quels gains dans les jeux ?

Pour le confirmer, nous avons utilisé plusieurs titres récents, exploitant DirectX 12 ou Vulkan. Bien entendu, les technologies qui ne profitent qu'aux GeForce RTX comme le ray tracing ou DLSS sont désactivées. Nous avons effectué des relevés en 1080p et 1440p, en prenant à chaque fois le niveau de qualité moyen ou maximal proposé.

On commence par le dernier opus de la saga Assassin's Creed d'Ubisoft et son moteur graphique AnvilNext.

  • Assassin's Creed : Valhalla - 1080p Moyen :
    • GeForce GTX 980 : 64 ips
    • GeForce RTX 3070 : 102 ips
  • Assassin's Creed : Valhalla - 1440p Moyen :
    • GeForce GTX 980 : 54 ips
    • GeForce RTX 3070 : 85 ips
  • Assassin's Creed : Valhalla - 1080p Ultra :
    • GeForce GTX 980 : 25 ips
    • GeForce RTX 3070 : 80 ips

Les jeux de l'éditeur ne sont pas connus pour tirer le mieux parti des PC et de leurs CPU/GPU, avec parfois de faibles écarts entre des composants très différents. On le constate ici puisqu'avec un niveau graphique moyen, la RTX 3070 est 1,6x plus performante que la GTX 980 « seulement ». Elle permet néanmoins de passer un bon cap.

C'est seulement dans le mode Ultra où l'écart relevé est similaire à nos précédents tests : 3,2x. On passe alors d'un scénario injouable à un bien meilleur confort de jeu.

On passe à Borderlands 3, tout aussi lourd mais qui affiche en général des résultats bien plus parlant :

  • Borderlands 3 - 1080p Moyen :
    • GeForce GTX 980 : 72,49 ips
    • GeForce RTX 3070 : 194,93 ips
  • Borderlands 3 - 1440p Moyen :
    • GeForce GTX 980 : 46,59  ips
    • GeForce RTX 3070 : 146,07 ips
  • Borderlands 3 - 1080p Brutal :
    • GeForce GTX 980 : 35,58 ips
    • GeForce RTX 3070 : 107,30 ips

On se retrouve cette fois dans une situation plus en phase avec la puissance des deux cartes. Dans le cas le plus léger, la RTX 3070 est 2,7x plus performante que la GTX 980, idéale pour jouer à 120/144 Hz. Dès que l'on monte en définition ou en complexité graphique, on passe à un rapport de 3x.

On note au passage que la RTX 3070 dépasse ici systématiquement les 100 images par seconde même avec un niveau graphique Brutal qui n'est pas spécialement favorable aux cartes de NVIDIA. Avec la GeForce GTX 980, le seul cas réellement jouable est le premier, seul à dépasser les 60 ips en moyenne.

C'est au tour de Vulkan de s'exprimer à travers Rainbow Six : Siege. La preuve qu'Ubisoft peut optimiser ses jeux pour tirer au mieux parti de leurs CPU/GPU quand il le souhaite. Comme le jeu est peu gourmand, nous n'avons effectué que deux relevés : 1080p et 1440p avec un niveau de qualité graphique Ultra :

  • Rainbow Six : Siege (Vulkan)- 1080p Ultra :
    • GeForce GTX 980 : 173 ips
    • GeForce RTX 3070 : 469 ips
  • Rainbow Six : Siege (Vulkan)- 1440p Ultra :
    • GeForce GTX 980 : 114 ips
    • GeForce RTX 3070 : 351 ips

Et comme précédemment, on se retrouve dans le premier cas avec un gain de 2,7x contre 3,1x dans le second.

Terminons notre petit tour avec le dernier Tomb Raider en date :

  • Shadow of the Tomb Raider - 1080p Moyen :
    • GeForce GTX 980 : 67 ips
    • GeForce RTX 3070 : 160 ips
  • Shadow of the Tomb Raider - 1440p Moyen :
    • GeForce GTX 980 : 45 ips
    • GeForce RTX 3070 : 131 ips
  • Shadow of the Tomb Raider - 1080p Très haut :
    • GeForce GTX 980 : 57 ips
    • GeForce RTX 3070 : 147 ips

Comme pour Borderlands, on note ici des scores très élevés pour la RTX 3070, permettant d'activer un niveau graphique supérieur ou le ray tracing pour les ombres, même sans avoir besoin de DLSS pour compenser la perte de performances. On est systématiquement entre 131 et 160 ips.

La GTX 980, elle, peine à être aux alentours de 60 ips. Mais le gain affiché est plus faible que dans les autres jeux : 2,4x et 2,6x en 1080p, même avec un niveau graphique très élevé. Il faut monter en 1440p pour atteindre les 2,9x.

Blender et Handbrake pour les créateurs

Il ne faut pas mettre de côté d'autres avancées des architectures récentes de NVIDIA, pour ce qui est de la réduction de la latence, qu'il s'agisse de solution logicielle ou matérielle via Reflex, mais aussi de ses fonctionnalités comme Ansel, Broadcast, Highlights, ShadowPlay, etc. Certaines sont d'ailleurs exploitables sur la GeForce GTX 980.

Mais la série RTX a notamment introduit les RT/Tensor Cores qui permettent d'accélérer le ray tracing et l'IA. Deux types d'unités qui s'expriment notamment dans certaines applications de rendu 3D, comme Blender :

  • Blender 2.91 OptiX (bmw27) :
    • GeForce GTX 980 : 149 secondes
    • GeForce RTX 3070 : 17 secondes

Ici, le résultat est sans appel : on divise le temps de rendu par... 8,76. Un gain bien plus important que dans les jeux pour deux raisons : l'accélération matérielle du ray tracing, mais surtout, le doublement des FP32 d'Ampere, et donc de la puissance de calcul FP32 quatre fois supérieure dont Blender profite à plein.

Les GPU permettent également d'accélérer la (dé)compression vidéo. Chez NVIDIA cela passe par NVDEC/NVENC, dont les capacités à travers les générations sont détaillées dans ce tableau. Le logiciel open source HandBrake permet d'en tirer parti, nous l'avons donc utilisé pour une compression H.265 :

  • HandBrake (4K > H.265 MKV 1080p30) :
    • GeForce GTX 980 : 63,9 ips
    • GeForce RTX 3070 : 62,4 ips

La GeForce GTX 980 repose sur la 5e génération de NVENC, contre la 7e pour la GeForce RTX 3070 et l'architecture Ampere. C'est le même que pour les RTX de série 20. Si toutes deux peuvent gérer trois sessions en simultanée, la GTX 980 le fait à travers deux NVENC au sein de la puce, un seul étant nécessaire à la RTX 3070.

La différence entre les deux se situe également au niveau des fonctionnalités, puisque la GTX 980 ne peut effectuer une compression H.265 que jusqu'à du 4K YUV 4:2:0, pas de YUV 4:4:4, de loseless, de 8K, 10 bits ou B-Frame. Mais dans ce test, on a des résultats similaires entre les deux cartes, il en sera de même en H.264.

Mais dans tous les cas, vous aurez une compression bien plus faible que sur CPU. Selon nos relevés, on obtient un fichier de 364/476 Mo en H.264/H.265 sur CPU contre 830 Mo et 1 Go environ sur GPU. Certes, la qualité d'image est alors au bénéfice du GPU, mais avec des fichiers trois fois plus gros... c'est la moindre des choses.

On note tout de même dans les captures ci-dessous que l'image obtenue avec la GeForce GTX 980 dispose par endroits d'un peu plus de détails que pour la RTX 3070, mais il faut encore zoomer pour le percevoir :

HandBrake Compression H.265 CPUHandBrake Compression H.265 GTX 980HandBrake Compression H.265 RTX 3070
Le rendu d'une image compressée en H.265 via HandBrake sur CPU, GTX 980 et RTX 3070

Trois fois mieux en six ans, bien plus avec RTX/DLSS

Comme on peut le voir ici, à tarif similaire, une GeForce de 2020 est trois fois plus performante qu'un modèle de 2014. Cela nécessite quelques dizaines de watts de plus, mais pour une efficacité bien supérieure. On a également droit au double de la mémoire, même si on note que 4 Go ne sont une limite que dans de rares cas en 1080p.

Or, c'est dans cette définition désormais que ceux qui ont encore une GTX 980 peuvent jouer. Le passage à un modèle plus récent leur apporte ainsi le fait de pouvoir grimper en qualité graphique avec de bien meilleures performances, ou de passer au 1440p qui est la définition cible de la RTX 3070.

Nous avons d'ailleurs effectué quelques tests complémentaires afin de positionner la GTX 980 par rapport à une carte graphique actuellement vendue sur le marché. Elle se retrouve ainsi sous une GTX 1660. Un modèle à 120 watts de TGP, actuellement vendu entre 220 et 260 euros (quand il est disponible).

Les gains s'apprécient dans les jeux vidéo, mais pas seulement. Ceux observés lors de nos tests dans le domaine du rendu 3D sont également impressionnants. Les fonctionnalités apportées par la dernière génération, permettent aussi de mettre des expériences de jeu radicalement différentes à la portée des joueurs.

Certes, il y a le streaming en direct, la réduction de la latence pour le jeu compétitif, mais on pense également à DLSS qui permet de monter drastiquement en définition affichée ou en qualité graphique avec une pénalité moindre, ce qui est appréciable sur des composants de milieu de gamme comme les séries 60/70.

La RTX 3070 de référence (Founders Edition) a aussi l'avantage d'être plus courte et plus silencieuse avec ses deux ventilateurs dont un traversant, l'extraction directe de la chaleur et l'arrêt des ventilateurs au repos. Elle profite aussi du PCIe 4.0, utile lorsque plusieurs GPU doivent communiquer ensemble (elle n'a pas de connecteur NVLink).

Si d'autres batailles de vieux composants vous intéressent, n'hésitez pas à nous les signaler en commentaire.

Commentaires (63)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Très intéressant comme comparaison. De mon côté j’ai tendance à sauter une seule génération (je vais changer ma 1080 par une 3080 … quand elle sera enfin disponible). C’est sur que vu les prix, on va pas en racheter une tous les 2 ans.



Intéressant de voir que la 980 se débrouille toujours pas trop mal sur des jeux récents en 1080p. Et aussi de voir la différence de gain entre les différents jeu. La comparaison fait mal à Ubisoft. j’ai toujours eu une impression de non fluidité sur leurs jeu, donc ça m’étonne qu’à moitié

votre avatar

Très sincèrement, cet article me laisse un peu perplexe.

votre avatar

Merci pour votre test.



J’ai encore une 980 Ti, mais je compte changer mon écran pour 144Hz 2K, et la pauvre ne tiendra…
Je m’oriente vers une 3080 (voir Ti s’il y en a un jour?).



J’espère seulement qu’elle me dura aussi longtemps que ma 980 Ti…

votre avatar

Effectivement intéressant comme comparatif. Intéressant aussi de constater qu’on peut jouer en 1440p en moyen sur une 980 à tes jeux très récents, ce qui n’est pas si mal !

votre avatar

Intéressant comparatif, trop souvent oublié !

votre avatar

Excellent article, je pense que ce serait loin d’être aussi parlant en comparant des CPU récents et des CPU qui ont six ans ;-)

votre avatar

Tout dépend, surtout à budget constant. Avec l’augmentation du nombre de cœurs ça fait déjà pas mal, le gain en IPC/fréquence aussi sur les générations récentes, sans parler de la consommation, de l’intégration de GPU plus performants, des E/S, divers accélérateurs (chez Intel), etc.

votre avatar

Même s’il commence vraiment à faire son age, je serai très curieux de voir une comparaison entre le i7 2600K, qui a bientôt 10 ans, qui était au top et l’est resté de nombreuses années, et un processeur récent, Intel et/ou AMD.



La comparaison sur les performances bruts laisse peu de doute sur les gains (surtout face aux derniers Ryzen), les architectures ayant bien évolués, mais est-ce que la différence serait si marquante que ça dans les jeux ?



En tout cas, intéressant pour les cartes graphiques, cela montre clairement que de ce côté là il y a eu de grosses évolutions.

votre avatar

Oh mais c’est ma carte!!
très intéressant effectivement. Ça confirme ce que je constate, je peux jouer correctement aux jeux récents avec ma carte en 1080. Et que le changement pour une carte récente ne sera pas anecdotique :)

votre avatar

Des CPU qui ont 10 ans !
Pour 567 €j’avais eu ça :
158,99 CARTE_MERE GIGABYTE P55A-UD4 - Chipset Intel P55 Express
95,9 DDR3 G.Skill ECO Series - 4Go ( 2x 2 Go ) - PC10666 (1333 Mhz) - CL7 - F3-10666CL7D-4GBECO
252,5 PROCESSEUR INTEL i7 860 2.8GHz et 3.46GHz avec TurboBoost QPI TBD 8Mo cache socket 1156
59,95 1 VENTILATEUR_RADIATEUR NOCTUA NH-U12P SE2



Grosse maille pour 600€ je devrais pouvoir prendre du AMD 6 coeurs, mais ne jouant pas et n’encodant pas je me demande si on voit la différence.
Mis à part le fait que je pourrais installer win 10…

votre avatar

Merci pour cet article. J’ai une 980TI et je me posais la question de passer sur la RTX3070.
Finalement vu le prix et le fait que je devrais certainement changer d’alimentation aussi je vais m’abstenir pour l’instant. On verra avec la 3060TI

votre avatar

FrArtemis a dit:


Même s’il commence vraiment à faire son age, je serai très curieux de voir une comparaison entre le i7 2600K, qui a bientôt 10 ans, qui était au top et l’est resté de nombreuses années, et un processeur récent, Intel et/ou AMD.



La comparaison sur les performances bruts laisse peu de doute sur les gains (surtout face aux derniers Ryzen), les architectures ayant bien évolués, mais est-ce que la différence serait si marquante que ça dans les jeux ?


Tu vas être déçu de ton 2600K qui n’etait déjà pas au top (le 2700K était au-dessus :roll: )
Un 4c/8t @3.4GHz stock qui doit taper difficilement 4.3…
Déjà, être passé d’un i7-950 @4.17GHz à un 5820k @4.7GHz m’a mis une claque, on parle là d’un Haswell-E en 22nm. OC ainsi on atteint certes les perfs d’un 8700K @stock mais il y a eu 2 générations encore après, avec encore un potentiel d’OC…



Il est à noter que les nouveaux procs n’ont pas la même habileté à monter en fréquence que les anciens. SI tel comparo est prévu, overclocker les 2 puces face à face remettrait définitvement les pendules à l’heure.
Aujourd’hui un 2600K est dépassé de loin. Il doit certainement limiter une GTX 1660.

votre avatar

Merci pour l’article, je passe d’une 970 à une 3070 (si je la reçois), j’espère voir une nette différence.
Sur les procs en 4k, je suis presque certain que la différence est anecdotique.

votre avatar

C’est toujours très intéressant d’avoir un article comme ça. On peut voir qu’il y a un réel intérêt à changer de carte graphique après tout ce temps (j’ai une GTX 970, donc je me sens concerné). Il est quand même assez frappant de constater que 6 ans après, la GTX 980 n’est pas non plus complètement larguée et peut permettre de jouer dans des conditions raisonnables si les jeux sont un minimum optimisés (cf. Assassin’s Creed Valhala).



Je crois que ça a déjà été dit, mais j’ai jamais eu l’impression qu’il y avait eu de si énormes gains en performances côté CPU, ça serait donc intéressant de comparer des Core i5/7 du début des années 2010 avec un Ryzen 5000 à tarif équivalent : certes il y aura beaucoup plus de cores dans le Ryzen, mais on voit dans les divers tests sur internet que cela n’a pas forcément beaucoup d’intérêt dans les jeux dont la plupart semblent se satisfaire de 6 cores…

votre avatar

luckydu43 a dit:


Tu vas être déçu de ton 2600K qui n’etait déjà pas au top (le 2700K était au-dessus :roll: ) Un 4c/8t @3.4GHz stock qui doit taper difficilement 4.3… Déjà, être passé d’un i7-950 @4.17GHz à un 5820k @4.7GHz m’a mis une claque, on parle là d’un Haswell-E en 22nm. OC ainsi on atteint certes les perfs d’un 8700K @stock mais il y a eu 2 générations encore après, avec encore un potentiel d’OC…



Il est à noter que les nouveaux procs n’ont pas la même habileté à monter en fréquence que les anciens. SI tel comparo est prévu, overclocker les 2 puces face à face remettrait définitvement les pendules à l’heure. Aujourd’hui un 2600K est dépassé de loin. Il doit certainement limiter une GTX 1660.


Le 2700K est identique au 2600K… C’est le même sorti un an plus tard et boosté avec 100Mhz de plus. Si je cite celui-là c’est parce qu’il était la référence de l’époque, et que même aujourd’hui on voit des gens qui le cherche en occasion. :fumer:



Il est dépassé, oui, mais de loin : ca dépend pour quoi faire. Parce que pour jouer en 1080p en qualité max ou presque cela suffisait très bien pour une grande majorité de jeux récent.



Et savoir s’il est réellement limitant pour les cartes graphiques récentes : c’est probable, mais c’est justement là où il est intéressant de voir l’impact réel (et pas seulement des suppositions).



Après, que ce soit ce processeur, ou un autre un peu plus récent, l’objectif serait de savoir à quel point un processeur haut de gamme d’il y a entre 8 et 10 est limitant pour une carte graphique actuelle, en 1080p, 1440p ou 4K par exemple, par rapport à un processeur actuel.



Parce que pour faire du traitement, de la compilation, décompression etc. c’est certain qu’on verra une différence, mais pour le jeu… ?

votre avatar

FrArtemis a dit:


Même s’il commence vraiment à faire son age, je serai très curieux de voir une comparaison entre le i7 2600K, qui a bientôt 10 ans, qui était au top et l’est resté de nombreuses années, et un processeur récent, Intel et/ou AMD.


+1

votre avatar

si on peut faire des voeux, je serai pas contre un bon vieux phenom 955 dans un comparatif, si en plus y’avait une hd 5850 ou 7870
on a essoré borderlands 2 / 1.5 avec des potes sans souci, mais si on veut se faire le 3 faudra quand même se mettre à la page un jour ou l’autre :D

votre avatar

Bonsoir,



Cela tombe bien j’ai une 980 et un écran 1440p, je me posais la question de savoir si la 3070 serait la bonne carte ou viser la 3080.
Tout dépendra du prix et de la disponibilité, sachant que je ne change pas souvent de carte.

votre avatar

C’est marrant, je viens juste de changer de config donc ça me parle.



Ma config de 2016 :
Intel Core i7 4790 (3.6 GHz, 4 cœurs)
GeForce GTX 960 - 2 Go



Ma nouvelle config (pas encore montée, je sauvegarde mes données là ^^“) :
AMD Ryzen 7 3800X (3.9 GHz, 8 cœurs)
Geforce RTX 2060 - 6 Go



J’espère voir la différence même s’il n’y a que 4 ans entre les deux :transpi: .

votre avatar

justement je tourne encore avec mon vieux 2600K + ASUS ROG Gene Z68 en full SSD
Il tournait depuis un moment sur le gpu intégré (ne sert plus que pour de la bureautique + dev léger)



mais récemment le support du gpu intégré commence a se faire de plus en plus limité
Ça tourne encore correctement mais des logiciel comme CURA dans sa dernière version (4.8) ne fonctionne plus. Ça fonctionnait encore sur la 4.7.
Idem avec des artefact dans certain logiciel…
du coup je lui ai offert une GT730 pour ses vieux jours et CURA refonctionne…



trouver des drivers a jour commence a être compliqué aussi…tout du moins pour win 10
Je suis pas sur que les différentes failles type spectre soit comblées complètement (notamment le BIOS sans aucune mise a jour récente)



Bref il va finir sa vie sous linux, et je m’interroge sur son successeur :)
Le Ryzen 5600X tient la corde pour le moment



en tout cas ça aura été mon meilleur investissement informatique de tout les temps
merci intel et AMD d’avoir repris la guerre des perfs récemment

votre avatar

Très intéressant. Maintenant si seulement on pouvait l’acheter cette 3070 FE je sauterais dessus

votre avatar

Après OC pour tenir les nouvelles gen c’est bien mais faut voir si en mettant à jour les composants tu n’y gagnerais pas sur la facture d’électricité :D

votre avatar

Je voulais changer de carte vidéo pour noël, Mais vu les étagères vides des sites… Et les prix des rares cartes disponibles (et encore les stocks sont-ils là ?)
Ce sera peut être pour mon anniversaire (mars) et encore j’ai des doutes…

votre avatar

:cartonrouge: Le spoil ! :langue:

votre avatar

Il y a des articles existants qui comparent le 2600k à d’autres générations de core i7. Anandtech en a fait un dossier l’année dernière avec plusieurs générations de processeurs. Jusqu’au core i7 9700k. De quoi voir que pour jouer, ça se defend encore à nombre de coeurs identique.

votre avatar

En même temps, au risque de radoter : c’est le GPU qui fait la perf en jeu, pas le CPU (même si dans les tests CPU certains se mettent dans des situations que personne n’utilise pour accentuer les écarts). Le CPU ne doit pas être le facteur limitant, mais en pratique et si on ne sous exploite pas le GPU, c’est rarement le cas.

votre avatar

C’est très intéressant David !



En mettant de côté les nouvelles techno (Ray tracing, calcul, DLSS), ça montre que les jeux en 1080p se contentent souvent d’une 980.



Et souvent une pour raison simple : les consoles n’ont pas tellement changées entre temps, et les jeux présents sur les deux plateformes sont maintenant la norme.



Par contre, les écrans 1440p se diffusent largement et là, ça coince un peu. Mais honnêtement, en faisant quelques réglages sur les trucs ultra gourmands, ça va bien encore.



Ma 1070 8go sur un 1440p passe encore sans trop faire de concessions, et je voulais me prendre une 2070 Super. La pénurie de RTX30xx a par contre fait monter les prix !
Je pensais en prendre une à vil prix (180200 euros) mais l’absence des RTX3xxx fait que ça baisse pas… Voire certains tentent le coup de mettre à 450 euros !

votre avatar

En réduisant les paramètres graphique tu peux toujours avoir quelque chose de fonctionnel (surtout en 1080p). Après, même dans cette définition la 980 est à la peine dès que tu pousses la qualité d’image. Disons qu’à l’heure actuelle ça permet encore de jouer dans cette définition même à des titres récents, mais ça commence tout de même à devenir limite sur pas mal de titres.

votre avatar

La comparaison avec mon ancien pc risque de faire mal, un Intel Q6600 avec une geforce 9800gx2. A l’époque c’était le plus haut de gamme possibles. La comparaison serait bien amusante.
Merci @David_L pour la comparaison, article très intéressant.

votre avatar

David_L a dit:


En même temps, au risque de radoter : c’est le GPU qui fait la perf en jeu, pas le CPU (même si dans les tests CPU certains se mettent dans des situations que personne n’utilise pour accentuer les écarts). Le CPU ne doit pas être le facteur limitant, mais en pratique et si on ne sous exploite pas le GPU, c’est rarement le cas.


Tu as évidemment raison pour 95% des jeux présents et à venir mais le problème c’est que FS2020 est sorti et je soupçonne à peu près tous ceux qui l’ont acheté d’être tenté par une upgrade pour pouvoir en profiter avec tous les détails graphiques vu que c’est quand même le principal argument du jeu pour le moment.



Or dans ce cas de figure les recommandations d’usage vont à l’encontre de ce que tu “radotes” depuis des mois.




  • Le jeu est particulièrement limité par le CPU et jusqu’à Zen 3 intel était devant AMD.

  • en 1440p la totalité de ma vram (8go GTX1070) est utilisée.



Je m’étonne d’ailleurs que le FS2020 ne soit pas plus souvent inclus dans les bench pour montrer un cas extrême mais qui reste du jeu vidéo et pas du développent (blender etc)



Du coup, même si ça reste un cas très particulier j’avoue que je tic un peu à chaque fois que tu rabâches que le processeur n’a pas d’influence sur les perf ou qu’au delà de 8go de Vram c’est du bullshit commercial ;-)

votre avatar

fry a dit:


si on peut faire des voeux, je serai pas contre un bon vieux phenom 955 dans un comparatif, si en plus y’avait une hd 5850 ou 7870 on a essoré borderlands 2 / 1.5 avec des potes sans souci, mais si on veut se faire le 3 faudra quand même se mettre à la page un jour ou l’autre :D


Moi je voudrais bien voir ce que vaut mon phenom II X4 970 comparé à quelque chose de plus actuel.

votre avatar

FS2020 c’est différent. C’est du DX11 optimisé (pour le moment) avec les pieds. Ce n’est pas un jeu exigeant en CPU, c’est un jeu qui exploite mal le potentiel des machines en général. Du coup, je le vois mal être un mètre étalon de la décision en matière de composants informatiques.



C’est pour cela qu’il n’est que rarement dans le benchs. Tu peux mettre 10 GPU très différents, tu auras très peu d’écarts de performances. Un jeu à succès et/ou plaisant à l’oeil n’est pas le gage d’une réussite technique.

votre avatar

Merci pour ce test. j’ai justement une 980(ti) et ça me conforte dans le fait qu’il est temps de changer dès que les stocks seront là.

votre avatar

FrArtemis a dit:


Après, que ce soit ce processeur, ou un autre un peu plus récent, l’objectif serait de savoir à quel point un processeur haut de gamme d’il y a entre 8 et 10 est limitant pour une carte graphique actuelle, en 1080p, 1440p ou 4K par exemple, par rapport à un processeur actuel.


Le fait est qu’un processeur desktop vieux de 10 ans ne limite toujours pas un usage informatique courant (bureautique, web, etc…). on est donc moins tenté de le remplacer (plus la mobo et la RAM qui va avec).
Il est bien plus courant de trouver des machines sur un vieux sandy bridge avec une carte graphique qui à été mise à jour une, deux voire trois fois.



La question qui revient très souvent est donc : encore un petit update de CG ou dois-je (enfin) tout remplacer?



Je suis dans ce cas là, avec un phenom X6 1090T (sorti en 2010) et ma RX580 acheté d’occase trois fois rien. Mais je vois bien que dans certains jeux, sur certaines scènes, le CPU coince et passe sous les 50fps.
donc on finit bien par toucher une limite CPU! :)

votre avatar

moi je le constate quand steam télécharge surtout, la (dé) compression limite le débit, mon x4 955 est à fond sur ses 4 petits coeurs et bride le DL XD



mais c’est vrai qu’en usage courant y’a strictement aucun souci :)

votre avatar

Je m’étais posé la même question après avoir vu sur un autre site quelques personnes ne jurant que par leur 2600k overclocké



J’avais trouvé deux tests :



Chez Anandtech et Chez guru3D



De mémoire, le 2600k est dépassé en puissance brute mais parvient parfois à faire jeu égal quand on utilise de grosses résolutions.
Ces tests datent un peu mais montre quand même l’utilité de passer à un nouveau modèle de processeurs.

votre avatar

FrArtemis a dit:


Le 2700K est identique au 2600K… C’est le même sorti un an plus tard et boosté avec 100Mhz de plus. Si je cite celui-là c’est parce qu’il était la référence de l’époque, et que même aujourd’hui on voit des gens qui le cherche en occasion. :fumer:



Il est dépassé, oui, mais de loin : ca dépend pour quoi faire. Parce que pour jouer en 1080p en qualité max ou presque cela suffisait très bien pour une grande majorité de jeux récent.



Et savoir s’il est réellement limitant pour les cartes graphiques récentes : c’est probable, mais c’est justement là où il est intéressant de voir l’impact réel (et pas seulement des suppositions).



Après, que ce soit ce processeur, ou un autre un peu plus récent, l’objectif serait de savoir à quel point un processeur haut de gamme d’il y a entre 8 et 10 est limitant pour une carte graphique actuelle, en 1080p, 1440p ou 4K par exemple, par rapport à un processeur actuel.



Parce que pour faire du traitement, de la compilation, décompression etc. c’est certain qu’on verra une différence, mais pour le jeu… ?


Justement ! Le jeu en 1080p est bien plus dependant du CPU que du GPU comparé à une plus grande résolution donc le CPU-limiting apparaîtra en 1080p quand il apparaitra moins en 4K.



Je serais quand même curieux de voir combien de fps peut sortir un 2600K associé à une 3070 en résol 4K



(Oui, le 2700K/2600K c’est à peu près les mêmes, ça se joue à 100MHz de diff, c’était un petit pic oh)




durthu a dit:


Je m’étais posé la même question après avoir vu sur un autre site quelques personnes ne jurant que par leur 2600k overclocké



J’avais trouvé deux tests :



Chez Anandtech et Chez guru3D



De mémoire, le 2600k est dépassé en puissance brute mais parvient parfois à faire jeu égal quand on utilise de grosses résolutions. Ces tests datent un peu mais montre quand même l’utilité de passer à un nouveau modèle de processeurs.


Merci. Au final ça rejoint mes termes.
Et si c’était déjà tout juste peu limitant en 4K à l’époque des tests, aujourd’hui l’écart a encore du se creuser

votre avatar

hachu21 a dit:


Je suis dans ce cas là, avec un phenom X6 1090T (sorti en 2010) et ma RX580 acheté d’occase trois fois rien. Mais je vois bien que dans certains jeux, sur certaines scènes, le CPU coince et passe sous les 50fps. donc on finit bien par toucher une limite CPU! :)


Parce que tu n’es pas en 4K donc ton CPU est un peu plus demandé par tes jeux, ce qui explique la limitation.
Mon 5820k OC n’est pas encore limitant avec une 1080ti pour du 3440x1440 mais si je change de CG, si.

votre avatar

auberjine a dit:


Après OC pour tenir les nouvelles gen c’est bien mais faut voir si en mettant à jour les composants tu n’y gagnerais pas sur la facture d’électricité :D


Entre 50€ / an de plus sur la facture et un proc à 400€ + une CM à 250€, la question est vite répondue jeune entrepreneur :non:

votre avatar

C’est pas que le CPU est plus demandé quand la résolution baisse mais que le GPU se tourne les pouces. à 1080p ou 2160p ton CPU va calculer exactement la même chose dans les mêmes conditions, mais dans le cas du 2160p ton GPU va prendre plus de temps et le CPU devra l’attendre. En 1080p le GPU a fini avec le CPU et c’est donc celui ci qui devient le goulet d’étranglement.

votre avatar

durthu a dit:


Je m’étais posé la même question après avoir vu sur un autre site quelques personnes ne jurant que par leur 2600k overclocké



J’avais trouvé deux tests :



Chez Anandtech et Chez guru3D



De mémoire, le 2600k est dépassé en puissance brute mais parvient parfois à faire jeu égal quand on utilise de grosses résolutions. Ces tests datent un peu mais montre quand même l’utilité de passer à un nouveau modèle de processeurs.


… sauf pour jouer si on a un écran supérieur à 1080p!
Dans les liens que tu donnes, dès le 1440p la différence sera invisible en jeu.
Mais faut bien connaitre son matos et savoir le placer par rapport à un 2600k.
Genre mon X6 1090T prenais déjà 25% dans les dents en 2010, faut le prendre en compte.
Encore 23 ans (?) et la génération 2010 sera un vrai frein dans les jeux. 1213 ans de durée d’usage c’est déja énorme!

votre avatar

luckydu43 a dit:


Parce que tu n’es pas en 4K donc ton CPU est un peu plus demandé par tes jeux, ce qui explique la limitation. Mon 5820k OC n’est pas encore limitant avec une 1080ti pour du 3440x1440 mais si je change de CG, si.


Heu si ^^ mais ma config ne permet pas de jouer en réso native (sauf doom 2016). Je joue généralement en 1440p.

votre avatar

pour moi un CPU devient limitant quand il ne peut plus cracher plus de 50fps.
Ca dépend donc :




  • du jeu

  • de certains réglages graphiques

  • peu ou pas de la résolution

  • pas de la carte graphique



Si ton 5820k fait tourner tes jeux avec ta 1080, il les fera tourner au moins pareil avec une carte plus puissante. Donc pas encore limitant pour jouer.
Il pourra devenir limitant dans 2 cas de figure :




  • des futurs nouveaux jeux très gourmands en CPU (pas pour tout de suite je pense)

  • sur tes jeux actuels, tu veux augmenter tes FPS (passer sur un ecran 144hz par ex.)

votre avatar

Oui pardon, ça sonnait mieux dans ma tête :D
Bon résumé

votre avatar

Justement si,
Evidemment que ça dépend totalment du jeu et des réglages.
Mais ça dépend aussi de ta résolution et de ta carte graphique.
Si tu lance un jeu en 1080p avec une CG pas limitante et que ça dépote 65fps, ton proc n’est pas limitant d’après tes dires.
Oui mais tu as un écran 144Hz et il se trouve qu’un proc plus récent avec la même CG et la même résolution sort 150fps. J’appelle ça être CPU-limited



Imaginons que tu avais un écran 60Hz, que tu n’étais pas au courant de la limitation et que tu passes à un écran 4K 60Hz.
Si tu lances le même jeu en 4K, tkt pas que ton proc sortira pas 65fps mais bien moins. Y a 4 fois plus d’images à traiter par seconde ! Allez, tu ne passeras pas à 15fps mais à ~35, même avec du G-Sync/Freesync c’est pas jouable.
Et là encore, un proc plus récent qui sortira 60fps offrira donc une bonne jouabilité.



Y a qu’à voir les comparos Zen1/Intel où les procs rouges similaires voire meilleurs aux procs bleus en perfs applicatives se faisaient dépasser en 1080p quand ils arrivaient à toucher de peu leurs adversaires en 4K
On parle à génération égale, imagine 10 ans d’écart…

votre avatar

J’adore cette mise en perspective. Ca progresse vite. c’est fou.

votre avatar

“la petite nouvelle est 3,23,3 fois plus performante.”



Pas encore suffisant pour changer ! Car il faut x4 minimum pour passer de la HD à la 4K, donc je vais attendre encore 1 ou 2 générations :glasses:

votre avatar

Bah je comprend pas trop cet argument. Pour moi on fait des bench sur plein de jeux pour avoir un aperçu de tous les cas de figure. Certains bench donneront une meilleure idée des performances brutes et le résultat synthétique donne les performances moyennes. Il n’est pas si rare (ou alors je date un peu) d’inclure des jeux plus anciens ou tournant sur différentes API pour mettre en évidence des contextes d’utilisation plus ou moins favorables.



C’est clair que fs2020 n’a pas beaucoup d’intérêt pour un test de CG (encore qu’en matière d’information du public ça éviterait que des simers se jettent sur les RTX3090 et 3080 alors que ça n’apporte rien) mais pour un test processeur ça montre assez bien les avantages de l”architecture Zen 3 en terme d’ipc.



Quand je lis les forums du jeu j’hallucine en voyant les configs que les gens se montent pour en profiter donc bon je trouve que ce serait quand même légitime de l’inclure. Sans compter que ce n’est surement pas qu’une question d’API, Asobo ayant déjà prévenu qu’il n’y aura pas de différence de perf quand le jeux sera porté sous DX12 qui n’apportera a priori que la compatibilité XBX.

votre avatar

Effectivement :mdr:

votre avatar

Ce n’est pas parce que “on” fait des trucs que c’est pertinent :D Mais oui en bout de chaine les utilisateurs font souvent n’importe quoi (malgré la publication de tests sur FS2020)

votre avatar

Article intéressant.
En voyant la consommation Unigine Superposition, je me suis demandé ce que cela donnerait en activant la synchro verticale à 60i/s (voir moins car la GTX 980 passe probablement régulièrement en-dessous). Dans quelle mesure la conso diminuera pour la RTX 3070 à perf identique ?
Ou on peut considéré que les joules par images permettent d’en déduire la conso à perf identique, soit 2,73 fois moins ?
Pour un usage mixte, nouveaux usages (nouveau jeux plus gourmand, ou précédemment bridé) et anciens (jeux déjà à 100% des capacités de l’écran TaF avec la 980), ça peut être intéressant de savoir si la conso va effectivement diminuer dans le second cas ?



Sinon pour un prochain article, une comparaison GTX 970 avec ce qu’il y aura en face chez AMD et Nvidia début 2021, m’intéresserai bien.



Je suis toujours sur une GTX 970 (dans un boîtier externe, mais ça c’est une autre histoire)
Et ce serai plutôt dans cette gamme de prix (à l’époque 365€, si je me souviens bien) que je chercherai mon bonheur, fin de l’hiver, début du printemps.
Plutôt en AMD, en espérant une déclinaison des RX 6000 dans cette gamme de prix, à ce moment-là.



Car pour l’instant une recherche, peut-être trop rapide, me montre juste de la RX 5600 XT (ou de la GTX 1660 TI si je me résignais à rester chez les verts).
Qui sont un peu mieux. mais dont le gain ne semble pas du tout folichon par rapport à ma vénérable (mais taquine) GTX 970. En tout cas, rien à voir avec les gains x2,5 à x3,5 qui sont évoqué dans l’article entre la 980 et la 3070.
Mais là encore, ma recherche est peut-être trop superficielle.



Si ça reste du même ordre au printemps, probable que je resterai en attente encore quelque temps.

votre avatar

(reply:53581:Chocolat-du-mendiant)


Comme dit dans l’article ici, la 1660 est plutôt au niveau de la 980, pas de la 970.

votre avatar

hachu21 a dit:


Le fait est qu’un processeur desktop vieux de 10 ans ne limite toujours pas un usage informatique courant (bureautique, web, etc…). on est donc moins tenté de le remplacer (plus la mobo et la RAM qui va avec). Il est bien plus courant de trouver des machines sur un vieux sandy bridge avec une carte graphique qui à été mise à jour une, deux voire trois fois.



La question qui revient très souvent est donc : encore un petit update de CG ou dois-je (enfin) tout remplacer?


C’est ma réflexion aussi.
Je tourne depuis 7 ans sur un laptop Intel Core i7-4700MQ + GTX 765M 2Gb (monté via Xmg Schenker que je recommande chaudement d’ailleurs).
Depuis, j’ai changé les SSD + passé à 12GB de RAM, mais même si les jeux tournent relativement bien en faisant quelques concessions, je commence à atteindre les limites.
Vu que je joue moins, je me demande s’il ne serait pas possible de juste changer la CG au lieu de monter un laptop from scratch.
En train de chercher une CG compatible (et toujours supportée) mais je ne trouve pas grand chose… Plus compliqué avec les laptops…

votre avatar

Désolé si ce n’était pas clair.
Ma recherche n’était pas sur une carte avec des perf similaire à la GTX 970 (j’en ai déjà une de GTX 970, je ne cherche pas à acheter une carte avec des perf identiques :) )
Je cherchais une carte actuellement en vente pour à peu prêt le même prix que la GTX 970 en 2014, vers les 365€ (en fait c’était 352,90€).
J’ai cherché entre 300 et 400€ et n’ai trouvé que de la GTX 1660 TI/Super et de la RX 5600 XT, dans cette tranche de prix (il y aurait aussi encore de la RTX 2060, sans rien derrière, à un peu moins de 400€).



Et ensuite en comparant leurs perf synthétiques avec celles de la GTX 970, j’en conclu que ça n’a presque aucun intérêt d’en acheter une nouvelle au même prix. Le facteur semble être entre x1,25 et x1,5 dans cette gamme de prix.
6 ans après je m’attendais quand même à trouver un facteur moyen de 2x pour le même prix.



Je compte donc un peu sur les prochaines déclinaisons des RX 6000 / RTX 3000 pour améliorer les choses. On verra bien, de toute façon je ne suis pas pressé.

votre avatar

au passage Je veux bien un lien pour la 3070 à 520540:mdr:
on est pas très loin du paper launch pour les versions founders …
Idem pour les 3060.
Il ya quelques années, les version Founders Edition étaient synonymes de moches, bruyantes et plus chères que les version customs.
A présent c’est exactement l’inverse … que c’est-il passé? :keskidit:

votre avatar

Pour usage perso, avant j’achetais des cartes à 300 euros, et cette année je me suis fait plaisir, je suis passé d’une 390X à une RTX3080.
Sûrement stupide, mais je trouve qu’acheter une carte graphique à chaque nouvelle génération de consoles ça marche bien, car les jeux sont souvent nivelés au niveau des performances des consoles…
Ma 390X n’était pas mauvaise en full hd (j’arrivais à configurer les jeux pour arriver à 30FPS+), mais là c’est quand même sympa d’étre à 60FPS+ en 1440p.



Ce truc qui m’a le plus surpris, c’est qu’au boulot j’ai changé mon PC de 2011, et le nouveau a une 1660SUPER. Je n’avais pas suivi trop les tests de ces modèles un peu bâtards (je comprends la gamme 1060/1070/1080 et 2060/2070/2080 mais je n’aurais pas pu situer les perfs des 1660).
Et je dois dire que c’est une carte remarquable. Elle est dans une mini-tour Dell, et franchement elle est très compacte comparé à des cartes gaming. J’ai lancé deux jeux et le benchmark Unigine Valley (discrètement, j’étais au boulot), et ça tourne franchement bien en full HD et 1440p.



Et sur ma 3080, j’étais totalement hermétique au ray-tracing à première vue, mais sur Watch Dogs Legions c’est monstrueusement beau au niveau des reflets. Donc il faut un peu naviguer dans les propositions marketing pour savoir laquelle est de l’esbroufe et laquelle vaut le coup.



C’est la même chose sur mon écran : je suis passé d’un écran 27” 1080p Iiyama à un écran 1440p incurvé 32” 144Hz Freesynch Asus. Franchement je ne vois pas la différence au niveau résolution, je ne vois pas l’intérêt de la courbure, je trouve l’homogénéité des couleurs assez moche sur mon nouvel écran. Mais par contre, le Freesynch…. Je ne sais pas comment j’ai pu un jour jouer sans ça. C’est le jour et la nuit. Autant il n’y a aucune chance que j’utilise ce moniteur en bureautique au travail (j’ai un écran IPS depuis 2011, et le nouveau est un Dell U2520D qui est très beau au niveau du rendu), mais dans les jeux le fait de ne plus avoir de tearing ça change la vie. A ceux qui hésitent sur le Gsynch/Freesynch, je leur conseille de sauter le pas.



Et je précise au passage que je suis vraiment très “casual” au niveau des jeux.

votre avatar

Perso j’ai eu un 2600K, j’ai maintenant un 6700k. Il y a 4 générations d’écart et au final, l’écart de performances est marginal. Il y a autant de coeurs, la différence se fait sur la fréquence mais c’est minime. (Et la finesse de gravure, mais dans une tour avec un bon refroidissement ça dissipe correctement, c’est sans doute plus critique sur un portable)



Ce qui change entre les deux, c’est l’environnement, car maintenant j’ai une carte mère avec un port M.2 NVMe et ça ça change des trucs. Le port USB3.1 type c aussi, ou le support de la RAM plus rapide.



au boulot, je viens d’avoir un 10700K. Et là je double le nombre de coeurs. Dans ce cas-là l’écart est monstrueux. De toute façon on s’en rends compte chez Intel, depuis le début des “Core iX” il y a peu d’évolution à nombre de coeurs égal et fréquence égale. Ils ne montent pas les fréquences depuis un moment, donc les seules différences depuis 2011 c’est quand ils sont passé du haut de gamme à 4C/8TT à 6C/12T et maintenant à 8C/16T.



Après il y a quand même encore 5 ans entre le 6700K et le 10700K…

votre avatar

PS : et j’ai une 3080, mais je pense que ça ne vaut pas l’investissement hors 4K : pour du 1080p, restez sur une 3060 et pour du 1440p restez sur une 3070 (ou équivalents AMD).

votre avatar

dtb06 a dit:


C’est la même chose sur mon écran : je suis passé d’un écran 27” 1080p Iiyama à un écran 1440p incurvé 32” 144Hz Freesynch Asus. Franchement je ne vois pas la différence au niveau résolution, je ne vois pas l’intérêt de la courbure, je trouve l’homogénéité des couleurs assez moche sur mon nouvel écran. Mais par contre, le Freesynch…. Je ne sais pas comment j’ai pu un jour jouer sans ça. C’est le jour et la nuit. Autant il n’y a aucune chance que j’utilise ce moniteur en bureautique au travail (j’ai un écran IPS depuis 2011, et le nouveau est un Dell U2520D qui est très beau au niveau du rendu), mais dans les jeux le fait de ne plus avoir de tearing ça change la vie. A ceux qui hésitent sur le Gsynch/Freesynch, je leur conseille de sauter le pas.



Et je précise au passage que je suis vraiment très “casual” au niveau des jeux.


Casual, et du même avis que toi. Je suis passé sur un écran “gaming”, la plus grosse différence par rapport avec mon ancien écran de bureautique qui me servait a jouer, c’est le Freesync. Et comme tu dis, jouer sans tearing, c’est le jour et la nuit. Les chutes de framerate de ma 1070 passent super bien.



Concernant la résolution, pour du gaming, j’ai deux écran 27”, un 1080p et un 1440p, et en jeu quand ca bouge, je ne vois aucune différence entre les deux en terme de définition. Rester en 1080p est une sage décision très très économique fasse à tout l’engouement du QHD/4K. On le voit avec les tests de NXI, une RTX3060ti en 1080p, c’est 1015% meilleurs qu’une RTX3070 en 1440p. Il faut monter en RTX3080 qui coute quasiment le double pour arriver à avoir le même nombre de FPS.

votre avatar

Merci pour cet article, j’en redemande !
Comme beaucoup je serais intéressé avec la même chose mais concernant les CPU.
J’ai récupéré un “vieux” PC du boulot dont le GPU avait cramé. C’était une bête de course à l’époque, pour un graphiste, avec un CPU i7 3930K (6 coeurs / 12 threads). Je lui ai collé une RTX 2060 pour jouer à Half Life Alyx avec Oculus Link et je trouve que c’est limite.



On entend toujours que c’est le GPU qui compte dans les jeux, mais j’aimerais savoir à quel point c’est le cas. Clairement on ne peut pas non plus prendre n’importe quel CPU ! Et aussi, qui dit vieille machine dit vieille carte mère, donc RAM moins rapide, PCI Express ancienne version etc… mais comment savoir à quel point ça influe sur les perfs dans les jeux ?

votre avatar

luckydu43 a dit:


Tu vas être déçu de ton 2600K qui n’etait déjà pas au top (le 2700K était au-dessus :roll: ) Un 4c/8t @3.4GHz stock qui doit taper difficilement 4.3… Déjà, être passé d’un i7-950 @4.17GHz à un 5820k @4.7GHz m’a mis une claque, on parle là d’un Haswell-E en 22nm. OC ainsi on atteint certes les perfs d’un 8700K @stock mais il y a eu 2 générations encore après, avec encore un potentiel d’OC…



Il est à noter que les nouveaux procs n’ont pas la même habileté à monter en fréquence que les anciens. SI tel comparo est prévu, overclocker les 2 puces face à face remettrait définitvement les pendules à l’heure. Aujourd’hui un 2600K est dépassé de loin. Il doit certainement limiter une GTX 1660.


Mon 2700K est à 4.8 GHz sur tous les coeurs, en permanence. Un 2500/2600/2700K s’overclocke bien. Et en effet il limite les performances dans Warzone, le CPU est presque en tout le temps à 100% avec des graphismes réglés assez bas.

votre avatar

Vesna a dit:


Mon 2700K est à 4.8 GHz sur tous les coeurs, en permanence. Un 2500/2600/2700K s’overclocke bien. Et en effet il limite les performances dans Warzone, le CPU est presque en tout le temps à 100% avec des graphismes réglés assez bas.


Mon 9600K est presque pareil: 4.7Ghz tout coeur, 5.1Ghz un coeur.

votre avatar

Un article intéressant, merci !

GeForce GTX 980 vs RTX 3070 : match de cartes graphiques à 520/540 euros, à 6 ans d’intervalle

  • Maxwell v2, une autre époque

  • La remplaçante de la GTX 980 ? La RTX 3070

  • Machine de test et consommation

  • 3DMark et Unigine, pour commencer

  • Quels gains dans les jeux ?

  • Blender et Handbrake pour les créateurs

  • Trois fois mieux en six ans, bien plus avec RTX/DLSS

Fermer