Les premiers tests de la RTX 5090 sont en ligne, avec une large victoire de… l’IA
Vraiment pas assez chère mon fils

Le 23 janvier à 16h06
4 min
Hardware
Hardware
C’est aujourd’hui le coup d'envoi des tests de la nouvelle RTX 5090 de NVIDIA, avec l’architecture Blackwell. Carte très haut de gamme, elle remplace la RTX 4090 en étant, selon le fabricant, « deux fois plus rapide ». Ce 2x s’entend avec DLSS 4 activé.
La RTX 5090 marque le pas sur la RTX 4090… merci DLSS 4
Et dans le cas contraire ? Pour Frandroid, il y a « un gain de performance tout relatif hors DLSS ». Chez Engadget, on prend le problème dans l'autre sens : DLSS 4 « fonctionne bien » et remplit visiblement sa mission avec des performances de haut vol pour cette carte à plus de 2 300 euros.
Si DLSS 4 est aussi disponible sur les RTX 40, ce n’est pas le cas de la génération multi-images qui est réservé à la série 50. Hardware & Co consacre d’ailleurs un chapitre complet de son test au DLSS 4 en pratique.
La conclusion de nos confrères est d’ailleurs double, suivant comment on se place : « Soit on les voit [architecture Blackwell et la RTX 5090, ndlr] comme une timide mise à jour d'Ada Lovelace, bridée par un procédé de fabrication inchangé entrainant une consommation électrique en hausse notable et un différentiel de performance limité. Soit on croit au virage opéré par NVIDIA et son Neural Rendering ».
C’est un peu la même chose chez IGN. La GeForce RTX 5090 prend la couronne sur les performances, « mais avec moins de force que les générations précédentes ». Dans les jeux supportant DLSS 4, il y a « d’énormes gains de performances – il faut par contre être en paix avec le fait que 75 % des images sont générées avec l’IA », expliquent nos confrères.

Consommation en hausse, tarif « prohibitif »… mais de l’espoir
La consommation importante (et en hausse) est d’ailleurs un élément qui revient dans les conclusions de nombreux tests. Même chose avec le tarif, jugé « prohibitif » par Frandroid. Pour enfoncer le clou, Engadget lui consacre même deux des trois points négatifs : « Tellement cher » et « Pourquoi est-ce si cher ». Les Numériques regrette de son côté la présence du connecteur d’alimentation au milieu de la carte.
Cette GeForce RTX 5090 – bien trop onéreuse pour le commun des mortels – laisse par contre espérer de belles perspectives pour les cartes moins puissantes et surtout moins chères, comme l’indique Engadget : « Les performances DLSS 4 de la 5090 me rendent impatient de voir comment les RTX 5070 (Ti) moins chères se comportent. Si une carte à 550 dollars peut se rapprocher de ce que j’ai vu sur la 4090 à 1 599 dollars, même si elle repose sur une génération massive d’images, c’est une évolution majeure ». En France, elles seront pour rappel à respectivement 649 euros (RTX 5070) et 884 euros (RTX 5070 Ti), selon le site français de NVIDIA.
Pour Hardware & Co, cette carte « porte en elle les promesses d'une nouvelle ère qui semblait impossible à court terme, il n'y a de ça que quelques mois. Être capable de jouer en UHD avec les détails maximaux à des jeux AAA en Full Ray Tracing (Path Tracing) à 200 images par seconde ».
Le PCIe 5.0 change-t-il la donne ?
TechPowerUp aussi y va de son test, avec une conclusion du même acabit que les précédents, si ce n’est le regret d’un « overclocking de la mémoire limité artificiellement par le pilote ». Mais nos confrères se sont également amusés (chacun ses occupations…) avec la bande passante du port PCIe.
Les nouvelles RTX 50 sont, pour rappel, en PCIe 5.0, contre PCIe 4.0 pour les RTX 40. Mais quelle est l’influence en pratique de ce doublement de la bande passante ? Pas si marquant que cela finalement.
La moyenne en 1080p est de 251,2 fps en PCIe 5.0 x16, contre 248 fps en 4.0 x16 (ou 5.0 x8), 242,9 fps en 3.0 x16 (ou 4.0 x8, 5.0 x4), 225,3 fps en 2.0 x16. Il faut descendre en PCIe 1.1 x16 pour avoir une chute importante : 188,4 fps. La situation est à peu près la même avec l’augmentation du nombre de pixels.


Les premiers tests de la RTX 5090 sont en ligne, avec une large victoire de… l’IA
-
La RTX 5090 marque le pas sur la RTX 4090… merci DLSS 4
-
Consommation en hausse, tarif « prohibitif »… mais de l’espoir
-
Le PCIe 5.0 change-t-il la donne ?
Commentaires (48)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 23/01/2025 à 16h14
Le 23/01/2025 à 16h25
Il n'y a que moi qui ne comprend pas à quoi ça sert et en quoi ce serait cool ?
Le 23/01/2025 à 16h41
Le 23/01/2025 à 16h51
Au delà du marketing (une 5070 ti > 4090) une carte graphique qu tient la route même si c'est par un procédé utilisant l'IA, sans devoir dépenser une somme énorme, c'est un plus.
Modifié le 24/01/2025 à 09h45
Par exemple je vois très nettement la différence entre un jeu qui tourne à 50 fps, d'un même jeu qui tourne à 90 fps.
Les techniques d'optimisation sont pas terribles car sur certaines jeux tu vois bien le zone haute résolution de celle basse résolution, qui est fonction de la profondeur de vision. Quand tu vois un gros bloc qui se transforme en cailloux bien détaillé, des fois ça choque un peu.
Le 24/01/2025 à 18h05
On se pose tous la question.
Le 23/01/2025 à 16h52
Après je vois pas trop le souci, si, d'un point de vue utilisateur, ça ne change rien, et que les perfs sont bien au rdv.
A une époque il y avait des cartes qui "trichaient" en affichant que ce que le joueur voyais, on n'a jamais crié au scandale pour les FPS qui augmentent...
Le 23/01/2025 à 17h01
Le 23/01/2025 à 17h02
Mais les prochain jeux qui seront à 25FPS sans DLSS et 100FPS avec oui :)
Faut pas juste penser aux jeux actuels :)
Le 23/01/2025 à 17h06
Pour les 120fps, je pensais surtout aux jeux compétitifs mais a-t-on besoin d'une carte récente pour faire tourner Apex, Valorant ou Fortnite en 120fps ? Je ne pense pas.
Le 23/01/2025 à 17h08
De toute façon, personne n'oblige quiconque à acheter ces cartes hein, surtout si votre actuelle convient :)
Modifié le 23/01/2025 à 22h09
Au contraire, il est même conseillé de désactiver la génération multi image pour du compétif parce que ça entraîne une latence supplémentaire (que Nvidia tente de compenser avec sa technologie Nvidia Reflex).
Et de toute façon, des images supplémentaires "inventées" par l'IA n'apportent aucun avantage compétitif, on n'a pas d'information "réelle" sur des changements d'états du jeux qui se rafraîchit plus rapidement à l'écran.
Modifié le 23/01/2025 à 22h10
Le 23/01/2025 à 17h04
Source: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-13#abschnitt_rtx_5090_vs_rtx_4090_bei_450_watt
Le 23/01/2025 à 17h00
Le 23/01/2025 à 17h04
Le 24/01/2025 à 00h20
Le 24/01/2025 à 09h13
Augmenter la production d'elec, que ce soit pour des alim de 1000W nécessaires pour cette CG ou pour un DC, ce n'est pas du tout décarboné.
Et accessoirement, l'écologie ne s'arrête pas aux frontières de la France.
Enfin je ne vous apprends rien... C'est juste que la réflexion était très juste, niveau écologie c'est un pas en arrière. On va coller de l'IA partout, et que ce soit en local ou sur un DC, ca consomme !
D'ailleurs la consommation et l'énergie propre est surement mieux gérée dans un DC qu'a domicile.
Le 24/01/2025 à 10h34
J'ai lu tes autres messages sur le DLSS, tu sembles ne pas prendre en compte le problème de latence. Ce qui est le plus intéressant dans les jeux rapides quand on passe de 60fps à 120fps c'est largement la réduction de la latence. Les commandes sont plus directes, tout est plus réactif et c'est ça qui de loin change la donne. Or le DLSS augmente le frame rate sans faire baisser la latence, enfin si un peu mais pas au niveau réel du nombre d'images affichées. Sur un jeu qui tourne nativement à 25fps affiché à 100fps grâce au DLSS, tu auras la latence d'un jeu qui tourne à environ 50fps, c'est toujours mieux que rien, mais ça ne correspond en rien à un équivalent de jeu à 100fps natif, ce n'est pas comparable.
Attention donc aux graphiques un peu trop vendeurs... l'IA n'est pas magique.
Le 24/01/2025 à 15h59
Le 25/01/2025 à 14h45
Je n'ai rien à redire sur le DLSS2
Le 26/01/2025 à 12h17
Tu peux jouer dès maintenant avec ta RTX 2060 avec l'upscaling DLSS 4 sur Cyberpunk 2077. Tout comme on pouvait jouer ces dernières années avec le DLSS3 sur cette même carte.
Nvidia nous a habitué à sortir à chaque nouvelle version majeure du DLSS une nouveauté qui n'est exclue que pour leur nouvelle génération de cartes, ce qui porte confusion. Mais le numéro du DLSS n'est pas lié à la dernière nouveauté.
Le 23/01/2025 à 17h05
Le 23/01/2025 à 17h08
Le 23/01/2025 à 17h11
Après, il y a bien un entraînement en amont (après vérification), donc je mets un bémol sur ce que j'ai dit, cet entraînement utilise des datacenters :)
Le 23/01/2025 à 17h43
Le 24/01/2025 à 10h58
Et pour détail, vu que c'est un réseau destiné à être exécuté en local, avec un temps de réponse très court, il ne peut pas être très gros. Au contraire, il doit être petit. Et un petit réseau est beaucoup plus économique à entrainer qu'un énorme réseau.
Le 23/01/2025 à 17h34
Modifié le 24/01/2025 à 13h33
- Le Super Sampling (utilisé pour faire de l'upscaling)
- Le Frame Generation
L'idée c'est que le moteur du jeu va seulement générer 20 images/sec en résolution 1080.
Et le DLSS va extrapoler cela pour faire 60 images/sec en 4K.
Au final ton jeu tourne en 4K@60fps alors que le moteur génère du 1080@20fps
(les chiffres dépendent du jeu et de ta config, bien sur)
Modifié le 23/01/2025 à 18h22
de ce que je lis ailleurs :
- Sur le benchmark Procyon Text Generation, la RTX 5090 montre des gains allant de 20% à 33% selon les modèles de langage testés
- Plus précisément, on observe une amélioration de 33% sur LLAMA 2, 31% sur LLAMA 3.1, et 22% sur Mistral 7B
- Pour les calculs en mode FP4, la RTX 5090 est nettement plus rapide, terminant la tâche en seulement 16 secondes contre 69 secondes pour la RTX 4090
- En mode FP8, le temps de calcul est réduit à 27 secondes pour la RTX 5090, comparé à 39 secondes pour la RTX 4090
autre info majeure pour les LLM : 32 Go de Vram
Le 23/01/2025 à 20h37
Maintenant j'attends les retour pour sa sortie en avril et ses possibilités comme par exemple voir si on peut le déporter comme un nas.
Modifié le 23/01/2025 à 18h51
Le 23/01/2025 à 22h15
si on sort de sa bulle et que l'on a des sons et des images naturelles, ça doit réparer.
Le 26/01/2025 à 09h44
Quant au DLSS, un pixel et un pixel qu'il soit calculé par un tensor flow orchestré par le moteur graphique, ou par un tensor flow alimenté par un perceptron, je ne vois par quel magie ça pourrait changer quoi que ce soit pour ta vue...
Le 23/01/2025 à 21h47
J'avais pré-acheté FF7 Rebirth, quelle déception de voir que le jeu ne veuille pas se lancer sur mon GPU parce que Square-Enix exige le support des shaders Meshe, alors que Unreal Engine n'en fait pas un prérequis ! Le nombre de déçus est nombreux...
Du coup je me tâte à me remonter un PC de jeu par la suite, avec une RTX 5060 qui devrait très largement couvrir mes besoins en 1080P (voir 1440P si branché à mon moniteur), l'idée étant uniquement de me faire un cloud gaming personnel avec QEMU + PCI Passthrough, au besoin.
Modifié le 24/01/2025 à 07h34
C’est fou de se dire que certaines des frames affiches sont en fait « déduites » par le gpu.
En même temps c’est un peu perturbant que ce qu’on voit ne soit pas issu d’un calcul brut, toutes les FPS ne se valent pas et Cyberpunk tout au max en 4K/RT c’est pas encore une réalité finalement..
Le 24/01/2025 à 11h17
Faire de la 3D en temps réel nécessite de faire beaucoup de "triche" pour générer un rendu correct, fluide et réactif (il suffit de voir comment fonctionne le moteur de Castle Wolfenstein/Doom qui a permi de faire les premiers jeux en 3D fluide.). Pour tout ce qui est rendu des volumes, des ombres, des lumières, des reflets… on ne cherche pas à faire quelque chose qui colle à la réalité, mais quelque chose qui paraît suffisamment réel, qui rend juste bien et qui ne choque pas.
Au final, vu que la 3D en temps réel pour le jeu vidéo, c'est déjà beaucoup de l'apparence pour le confort de l'expérience, générer des "fausses images" entre 2 frames, si ça améliore l'expérience, ce n'est pas si aberrant.
Le 24/01/2025 à 12h29
Ceci étant dit je crois qu’une des premières vidéos d’analyse de Digital Foundry était assez intéressantes sur les artefacts que produit le DLSS, un peu à l’image des réponses hallucinées par l’IA.
Il y avait notamment un exemple dans Cyberpunk où les NPC faisait un peu n’importe quoi, faute pour l’IA d’avoir grand chose d’intéressant à calculer les concernant.
Tout ça est quand même intéressant, je me demande s’il y a déjà des exemples concrets de jeux dont le gameplay a été altéré par ces générations de frames.
Le 24/01/2025 à 14h46
Après, comme je l'ai dit, c'est la qualité de l'expérience qui compte, si l'artefact est quasi imperceptible, mais que de l'autre côté, tu gagnes en confort grâce à une animation plus fluide, ça vaut le coup.
(sinon, dans "Son of the Forest", j'avais activé un upscaling, mais je ne sais pas lequel, mais il faisait un truc dégueulasse sur l'écran affichant le nombre de personnes dans le caddie de golf, et il avait énormément de problème avec les feuillages)
Modifié le 24/01/2025 à 16h26
En fonction du jeu et des technos utilisées (FSR, FSR2, FSR3, DLSS, DLSS2, etc) ça change vraiment du tout au tout.
Les résolutions dynamiques (utilisées sur consoles à l'origine) sont pas mal aussi pour qui n'a pas une machine de guerre. Calculer 66% de la résolution cible + upscale fonctionne généralement plutôt bien. Mais pareil, la qualité globale est très tributaire de la techno utilisée.
Le 24/01/2025 à 08h51
Le 25/01/2025 à 12h23
DLSS est l'équivalent conceptuel de la télémétrie = planquer le plagiat.
La seule bonne nouvelle est que le matériel est plutôt ouvert avec CUDA. En ce sens, la 5090 peut être très utile à la prédiction de la météo. Il ne faut pas tout voir du mauvais côté.
Modifié le 28/01/2025 à 12h27
Le 26/01/2025 à 09h52
Le 28/01/2025 à 12h28
Le 24/01/2025 à 10h57
Sur LTT, çà fait du beau-joli à l'écran tout de même....
Modifié le 30/01/2025 à 21h12
Le 29/01/2025 à 18h36