Connexion
Abonnez-vous

Les premiers tests de la RTX 5090 sont en ligne, avec une large victoire de… l’IA

Vraiment pas assez chère mon fils

Les premiers tests de la RTX 5090 sont en ligne, avec une large victoire de… l’IA

Le 23 janvier à 16h06

C’est aujourd’hui le coup d'envoi des tests de la nouvelle RTX 5090 de NVIDIA, avec l’architecture Blackwell. Carte très haut de gamme, elle remplace la RTX 4090 en étant, selon le fabricant, « deux fois plus rapide ». Ce 2x s’entend avec DLSS 4 activé.

La RTX 5090 marque le pas sur la RTX 4090… merci DLSS 4

Et dans le cas contraire ? Pour Frandroid, il y a « un gain de performance tout relatif hors DLSS ». Chez Engadget, on prend le problème dans l'autre sens : DLSS 4 « fonctionne bien » et remplit visiblement sa mission avec des performances de haut vol pour cette carte à plus de 2 300 euros.

Si DLSS 4 est aussi disponible sur les RTX 40, ce n’est pas le cas de la génération multi-images qui est réservé à la série 50. Hardware & Co consacre d’ailleurs un chapitre complet de son test au DLSS 4 en pratique.

La conclusion de nos confrères est d’ailleurs double, suivant comment on se place : « Soit on les voit [architecture Blackwell et la RTX 5090, ndlr] comme une timide mise à jour d'Ada Lovelace, bridée par un procédé de fabrication inchangé entrainant une consommation électrique en hausse notable et un différentiel de performance limité. Soit on croit au virage opéré par NVIDIA et son Neural Rendering ».

C’est un peu la même chose chez IGN. La GeForce RTX 5090 prend la couronne sur les performances, « mais avec moins de force que les générations précédentes ». Dans les jeux supportant DLSS 4, il y a « d’énormes gains de performances – il faut par contre être en paix avec le fait que 75 % des images sont générées avec l’IA », expliquent nos confrères.

Consommation en hausse, tarif « prohibitif »… mais de l’espoir

La consommation importante (et en hausse) est d’ailleurs un élément qui revient dans les conclusions de nombreux tests. Même chose avec le tarif, jugé « prohibitif » par Frandroid. Pour enfoncer le clou, Engadget lui consacre même deux des trois points négatifs : « Tellement cher » et « Pourquoi est-ce si cher ». Les Numériques regrette de son côté la présence du connecteur d’alimentation au milieu de la carte.

Cette GeForce RTX 5090 – bien trop onéreuse pour le commun des mortels – laisse par contre espérer de belles perspectives pour les cartes moins puissantes et surtout moins chères, comme l’indique Engadget : « Les performances DLSS 4 de la 5090 me rendent impatient de voir comment les RTX 5070 (Ti) moins chères se comportent. Si une carte à 550 dollars peut se rapprocher de ce que j’ai vu sur la 4090 à 1 599 dollars, même si elle repose sur une génération massive d’images, c’est une évolution majeure ». En France, elles seront pour rappel à respectivement 649 euros (RTX 5070) et 884 euros (RTX 5070 Ti), selon le site français de NVIDIA.

Pour Hardware & Co, cette carte « porte en elle les promesses d'une nouvelle ère qui semblait impossible à court terme, il n'y a de ça que quelques mois. Être capable de jouer en UHD avec les détails maximaux à des jeux AAA en Full Ray Tracing (Path Tracing) à 200 images par seconde ».

Le PCIe 5.0 change-t-il la donne ?

TechPowerUp aussi y va de son test, avec une conclusion du même acabit que les précédents, si ce n’est le regret d’un « overclocking de la mémoire limité artificiellement par le pilote ». Mais nos confrères se sont également amusés (chacun ses occupations…) avec la bande passante du port PCIe.

Les nouvelles RTX 50 sont, pour rappel, en PCIe 5.0, contre PCIe 4.0 pour les RTX 40. Mais quelle est l’influence en pratique de ce doublement de la bande passante ? Pas si marquant que cela finalement.

La moyenne en 1080p est de 251,2 fps en PCIe 5.0 x16, contre 248 fps en 4.0 x16 (ou 5.0 x8), 242,9 fps en 3.0 x16 (ou 4.0 x8, 5.0 x4), 225,3 fps en 2.0 x16. Il faut descendre en PCIe 1.1 x16 pour avoir une chute importante : 188,4 fps. La situation est à peu près la même avec l’augmentation du nombre de pixels.

Commentaires (48)

votre avatar
Quand chez lesnums tu vois que Alan Wake 2 en 4k est à 200fps avec DLSS4, ça laisse rêveur pour les perfs de la 5070 ti.
votre avatar
« Être capable de jouer en UHD avec les détails maximaux à des jeux AAA en Full Ray Tracing (Path Tracing) à 200 images par seconde »

Il n'y a que moi qui ne comprend pas à quoi ça sert et en quoi ce serait cool ?
votre avatar
Jouer full détail / full rez offre en théorie la meilleure qualité possible (si DLSS4 tient bien ses promesses et ne génère pas n'importe quoi), et dépasser les 100/144/165 fps garantit un sentiment de fluidité dans les jeux dits rapides (FPS par exemple)
votre avatar
Je vois ça autant comme un confort pour les futures jeux du calibre de Alan Wake que comme un achat pérenne pour ce type de jeu.

Au delà du marketing (une 5070 ti > 4090) une carte graphique qu tient la route même si c'est par un procédé utilisant l'IA, sans devoir dépenser une somme énorme, c'est un plus.
votre avatar
Ça dépend de ton ressenti, et aussi de tes yeux.

Par exemple je vois très nettement la différence entre un jeu qui tourne à 50 fps, d'un même jeu qui tourne à 90 fps.
Les techniques d'optimisation sont pas terribles car sur certaines jeux tu vois bien le zone haute résolution de celle basse résolution, qui est fonction de la profondeur de vision. Quand tu vois un gros bloc qui se transforme en cailloux bien détaillé, des fois ça choque un peu.
votre avatar
C'est vrai, mais à quoi bon ça peut servir de jouer dans de bonnes conditions ?
On se pose tous la question.
votre avatar
Au bout d'un moment à moins d'avoir une alimentation de 5000W et 10CG en parallèle, ça va être difficile d'augmenter significativement les performances sans l'IA...
Après je vois pas trop le souci, si, d'un point de vue utilisateur, ça ne change rien, et que les perfs sont bien au rdv.
A une époque il y avait des cartes qui "trichaient" en affichant que ce que le joueur voyais, on n'a jamais crié au scandale pour les FPS qui augmentent...
votre avatar
La question est surtout de savoir si tu vois la différence entre avec ou sans IA à plus de 120fps ?
votre avatar
Non, en effet, c'est sur même :)
Mais les prochain jeux qui seront à 25FPS sans DLSS et 100FPS avec oui :)

Faut pas juste penser aux jeux actuels :)
votre avatar
Je pense même aux jeux actuels. Sans DLSS, je fais tourner Alan Wake à 25fps justement. Est ce qu'avec une carte comme celles qui vont sortir le jeu sera plus beau malgré l'IA, je pense que oui.

Pour les 120fps, je pensais surtout aux jeux compétitifs mais a-t-on besoin d'une carte récente pour faire tourner Apex, Valorant ou Fortnite en 120fps ? Je ne pense pas.
votre avatar
Tu prend Cyberpunk avec le pathtracing, ma 3080Ti est par terre..., donc effectivement sur certains jeux actuels, avec le path tracing / 4k et compagnie ça fera une différence.

De toute façon, personne n'oblige quiconque à acheter ces cartes hein, surtout si votre actuelle convient :)
votre avatar
Pas d'intérêt pour le compétitif.

Au contraire, il est même conseillé de désactiver la génération multi image pour du compétif parce que ça entraîne une latence supplémentaire (que Nvidia tente de compenser avec sa technologie Nvidia Reflex).

Et de toute façon, des images supplémentaires "inventées" par l'IA n'apportent aucun avantage compétitif, on n'a pas d'information "réelle" sur des changements d'états du jeux qui se rafraîchit plus rapidement à l'écran.
votre avatar
À supprimer
votre avatar
Les perfs augmentent bien significativement à puissance égale et sans IA : https://www.techpowerup.com/forums/threads/nvidia-geforce-rtx-5090-founders-edition.331372/post-5426969

Source: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-13#abschnitt_rtx_5090_vs_rtx_4090_bei_450_watt
votre avatar
Rappelons nous que le DLSS necessite une dose de calcul en amont phénoménal. Donc, au niveau écologie, c'est un pas en arrière marqué.
votre avatar
Le calcul est en local, donc tu consommes certes plus mais pas via un data center. En France on produit la majorité de notre électricité en décarboné donc, en dehors de la France à la limite, mais pas chez nous.
votre avatar
Il parle certainement de l'entrainement pour obtenir le réseau de neurones
votre avatar
C'est pas parce que c'est en local que ca consomme moins...

Augmenter la production d'elec, que ce soit pour des alim de 1000W nécessaires pour cette CG ou pour un DC, ce n'est pas du tout décarboné.

Et accessoirement, l'écologie ne s'arrête pas aux frontières de la France.

Enfin je ne vous apprends rien... C'est juste que la réflexion était très juste, niveau écologie c'est un pas en arrière. On va coller de l'IA partout, et que ce soit en local ou sur un DC, ca consomme !

D'ailleurs la consommation et l'énergie propre est surement mieux gérée dans un DC qu'a domicile.
votre avatar
Non, le DLSS c'est dans les datacenters de nvidia que se passe l'entrainement. Ta CG en local n'applique que la résultante de cet entraînement.

J'ai lu tes autres messages sur le DLSS, tu sembles ne pas prendre en compte le problème de latence. Ce qui est le plus intéressant dans les jeux rapides quand on passe de 60fps à 120fps c'est largement la réduction de la latence. Les commandes sont plus directes, tout est plus réactif et c'est ça qui de loin change la donne. Or le DLSS augmente le frame rate sans faire baisser la latence, enfin si un peu mais pas au niveau réel du nombre d'images affichées. Sur un jeu qui tourne nativement à 25fps affiché à 100fps grâce au DLSS, tu auras la latence d'un jeu qui tourne à environ 50fps, c'est toujours mieux que rien, mais ça ne correspond en rien à un équivalent de jeu à 100fps natif, ce n'est pas comparable.

Attention donc aux graphiques un peu trop vendeurs... l'IA n'est pas magique.
votre avatar
Attention à ne pas mélanger la génération d'images et l'upscaling du DLSS. L'upscaling n'augmente pas la latence.
votre avatar
je faisais allusion au DLSS4 précisément.
Je n'ai rien à redire sur le DLSS2 :prof:
votre avatar
Oui mais le DLSS4 n'est pas que la génération d'images en x3-x4. C'est un ensemble de technologies. Le DLSS 4.0 "upscaling", le DLSS 4.0 "reconstruction de rayon", le DLSS 4.0 "anti aliasing" existe aussi. Ce n'est plus du DLSS 2 depuis longtemps.

Tu peux jouer dès maintenant avec ta RTX 2060 avec l'upscaling DLSS 4 sur Cyberpunk 2077. Tout comme on pouvait jouer ces dernières années avec le DLSS3 sur cette même carte.

Nvidia nous a habitué à sortir à chaque nouvelle version majeure du DLSS une nouveauté qui n'est exclue que pour leur nouvelle génération de cartes, ce qui porte confusion. Mais le numéro du DLSS n'est pas lié à la dernière nouveauté.
votre avatar
Tout est local (d'ou le prix du bousin, même si abusé, mais bon, les gens achètent :)), t'imagine le lag si chaque image rajoutée était calculée par des serveurs distants ?
votre avatar
C'est-à-dire ?
votre avatar
Ben quand tu fais tourner ton jeu, tous les calculs DLSS sont fait par les cœurs Tensor.

Après, il y a bien un entraînement en amont (après vérification), donc je mets un bémol sur ce que j'ai dit, cet entraînement utilise des datacenters :)
votre avatar
c'était la remarque du commentaire de base justement: il faut faire un entrainement en amont.
votre avatar
Sauf que ce qui est fait en amont de manière mutualisé sur les serveurs Nvidia permet d'économiser en aval de manière individuelle chez les millions de joueurs.

Et pour détail, vu que c'est un réseau destiné à être exécuté en local, avec un temps de réponse très court, il ne peut pas être très gros. Au contraire, il doit être petit. Et un petit réseau est beaucoup plus économique à entrainer qu'un énorme réseau.
votre avatar
C'est quoi DLSS ?
votre avatar
Disons que c'est un mélange de deux techniques de prestidigitation:
- Le Super Sampling (utilisé pour faire de l'upscaling)
- Le Frame Generation

L'idée c'est que le moteur du jeu va seulement générer 20 images/sec en résolution 1080.
Et le DLSS va extrapoler cela pour faire 60 images/sec en 4K.
Au final ton jeu tourne en 4K@60fps alors que le moteur génère du 1080@20fps

(les chiffres dépendent du jeu et de ta config, bien sur)
votre avatar
Ca ne parle que de FPS, il me semble qu'il manque un point important : quel gain pour les calculs d'IA quand on fait tourner un LLM en local ?

de ce que je lis ailleurs :
- Sur le benchmark Procyon Text Generation, la RTX 5090 montre des gains allant de 20% à 33% selon les modèles de langage testés
- Plus précisément, on observe une amélioration de 33% sur LLAMA 2, 31% sur LLAMA 3.1, et 22% sur Mistral 7B
- Pour les calculs en mode FP4, la RTX 5090 est nettement plus rapide, terminant la tâche en seulement 16 secondes contre 69 secondes pour la RTX 4090
- En mode FP8, le temps de calcul est réduit à 27 secondes pour la RTX 5090, comparé à 39 secondes pour la RTX 4090

autre info majeure pour les LLM : 32 Go de Vram
votre avatar
Pour le prix si tu veux faire du traitement LLM autant prendre le boitier nvidia digit à 3000 balles avec 128 Go ram LPDDR5X plutôt que cette carte.

Maintenant j'attends les retour pour sa sortie en avril et ses possibilités comme par exemple voir si on peut le déporter comme un nas.
votre avatar
La question que je me pose avec le dlss, c'est la qualité de l'image et l'impact sur la vue. Je m'explique: est-il possible que, comme au début du mp3, avec l'élimination de très hautes ou très basses fréquences soit disant inaudibles pour l'humain et qui ont finalement abimé l'oüie selon pas mal d'études; le dlss puisse abimer la vue? Je précise que je suis néophyte.
votre avatar
Normalement,
si on sort de sa bulle et que l'on a des sons et des images naturelles, ça doit réparer.
votre avatar
Depuis quand le MP3 rendrait sourd ? ça sent fort la fake news :) Les baladeurs MP3 (au même titre qu'un vieux lecteur CD portable) rendent sourd qu'on on monte le son pour tenter de couvrir les bruits environnants avec un casque non-fermé. C'est le volume sonore, la proximité des oreilles, et le temps d'écoute qui sont dangereux.

Quant au DLSS, un pixel et un pixel qu'il soit calculé par un tensor flow orchestré par le moteur graphique, ou par un tensor flow alimenté par un perceptron, je ne vois par quel magie ça pourrait changer quoi que ce soit pour ta vue...
votre avatar
Perso je me demande surtout à quel prix seront les RTX 5060 ?... Le prix des GPU a littéralement explosé depuis l'arrivée des GPU RTX.
J'avais pré-acheté FF7 Rebirth, quelle déception de voir que le jeu ne veuille pas se lancer sur mon GPU parce que Square-Enix exige le support des shaders Meshe, alors que Unreal Engine n'en fait pas un prérequis ! Le nombre de déçus est nombreux...
Du coup je me tâte à me remonter un PC de jeu par la suite, avec une RTX 5060 qui devrait très largement couvrir mes besoins en 1080P (voir 1440P si branché à mon moniteur), l'idée étant uniquement de me faire un cloud gaming personnel avec QEMU + PCI Passthrough, au besoin.
votre avatar
Je n’ai plus de PC gamer depuis un moment mais je suis vraiment intrigué par tous ces process qui génèrent des fausses frames pour augmenter la fluidité et autres DLSS.

C’est fou de se dire que certaines des frames affiches sont en fait « déduites » par le gpu.

En même temps c’est un peu perturbant que ce qu’on voit ne soit pas issu d’un calcul brut, toutes les FPS ne se valent pas et Cyberpunk tout au max en 4K/RT c’est pas encore une réalité finalement..
votre avatar
La question peut en effet sembler légitime, mais en vrai, ce qui importe, ce n'est pas juste la qualité de l'expérience ressentie ?

Faire de la 3D en temps réel nécessite de faire beaucoup de "triche" pour générer un rendu correct, fluide et réactif (il suffit de voir comment fonctionne le moteur de Castle Wolfenstein/Doom qui a permi de faire les premiers jeux en 3D fluide.). Pour tout ce qui est rendu des volumes, des ombres, des lumières, des reflets… on ne cherche pas à faire quelque chose qui colle à la réalité, mais quelque chose qui paraît suffisamment réel, qui rend juste bien et qui ne choque pas.

Au final, vu que la 3D en temps réel pour le jeu vidéo, c'est déjà beaucoup de l'apparence pour le confort de l'expérience, générer des "fausses images" entre 2 frames, si ça améliore l'expérience, ce n'est pas si aberrant.
votre avatar
Sur le fond totalement d’accord avec toi.

Ceci étant dit je crois qu’une des premières vidéos d’analyse de Digital Foundry était assez intéressantes sur les artefacts que produit le DLSS, un peu à l’image des réponses hallucinées par l’IA.

Il y avait notamment un exemple dans Cyberpunk où les NPC faisait un peu n’importe quoi, faute pour l’IA d’avoir grand chose d’intéressant à calculer les concernant.

Tout ça est quand même intéressant, je me demande s’il y a déjà des exemples concrets de jeux dont le gameplay a été altéré par ces générations de frames.
votre avatar
Oui, les artéfacts restent un problème pour le DLSS que chaque génération essaie d'améliorer. Il y a eu un gros chemin et cette nouvelle génération ne déroge pas à la règle et promet de meilleurs résultats (notamment grâce à l'utilisation de transformers).

Après, comme je l'ai dit, c'est la qualité de l'expérience qui compte, si l'artefact est quasi imperceptible, mais que de l'autre côté, tu gagnes en confort grâce à une animation plus fluide, ça vaut le coup.

(sinon, dans "Son of the Forest", j'avais activé un upscaling, mais je ne sais pas lequel, mais il faisait un truc dégueulasse sur l'écran affichant le nombre de personnes dans le caddie de golf, et il avait énormément de problème avec les feuillages)
votre avatar
Le FSR de AMD me génère des trucs assez dégueulasse dès qu'il s'agit de la végétation de manière générale.
En fonction du jeu et des technos utilisées (FSR, FSR2, FSR3, DLSS, DLSS2, etc) ça change vraiment du tout au tout.
Les résolutions dynamiques (utilisées sur consoles à l'origine) sont pas mal aussi pour qui n'a pas une machine de guerre. Calculer 66% de la résolution cible + upscale fonctionne généralement plutôt bien. Mais pareil, la qualité globale est très tributaire de la techno utilisée.
votre avatar
Je suis pour une décroissance modérée et je doute que la 5090 soit une bonne réponse :D
votre avatar
Nvidia a dépassé la capitalisation boursière d'Apple par les mêmes moyens qu'Apple avait dépassé celle d'Exxon : dévier la facture énergétique afin de créer un surendettement.

DLSS est l'équivalent conceptuel de la télémétrie = planquer le plagiat.

La seule bonne nouvelle est que le matériel est plutôt ouvert avec CUDA. En ce sens, la 5090 peut être très utile à la prédiction de la météo. Il ne faut pas tout voir du mauvais côté.
votre avatar
Température identique sur le connecteur d'alimentation que la RTX5090 : x.com Twitter on a pas fini d'entendre parler des connecteurs d'alimentation qui fondent
votre avatar
51.8°C y'a "un peu" de marge avant que ça fonde non ?
votre avatar
Il dit que c'est pas différent de la RTX4090 à 550W, si le GPU est poussé plus haut la çà cause les connecteurs qui fondent
votre avatar
youtube.com YouTube
Sur LTT, çà fait du beau-joli à l'écran tout de même.... :bisous:
votre avatar
votre avatar
Reste plus K voir si dans les appli IA comme ce que propose TOPAZ, les tensors cores apporteront un gain significatif de traitement.

Les premiers tests de la RTX 5090 sont en ligne, avec une large victoire de… l’IA

  • La RTX 5090 marque le pas sur la RTX 4090… merci DLSS 4

  • Consommation en hausse, tarif « prohibitif »… mais de l’espoir

  • Le PCIe 5.0 change-t-il la donne ?

Fermer