Alors que le DLSS 3.5 fait parler de lui sur la sortie miraculeuse du Cyberpunk 2077 2.0 (=4154 ?), qu’AMD rattrape son retard avec le FSR 3.0, qu’Intel confirme être dans la course avec son XeSS, Apple prend pour cible ces constructeurs avec une balle chemisée métal, MetalFX pour être plus précis. On termine avec une interview de Stéphane Quentin de NVIDIA.
Intéressons-nous d’abord à la face émergée de l’iceberg ; qu’est-ce que le Super Sampling ? Si vous êtes un tant soit peu « gameur » vous avez entendu parler de ces technologies capables de donner un coup de turbo au nombre d’images par seconde affichées dans un jeu.
Pour arriver à un tel miracle, les cartes graphiques calculent le rendu dans une définition inférieure, par exemple du 720p, puis par une dose d’intelligence artificielle, d’algorithmes et (pour certaines) de transistors, affichent du 1080p, 2K ou 4K a priori sans altérer la qualité graphique. C’est en quelque sorte l’upscaling de votre téléviseur, mais appliqué à une image calculée en temps réel, ce qui est un brin plus velu.
Voilà pour les généralités, passons maintenant aux cas individuels.
Commentaires (22)
J’ai déjà testé DLLS et FSR mais les réglages dans les jeux sont opaques avec des résultats pas toujours au top comme des artefacts sur DLSS et du flou sur FSR et une latence très désagréable sur les deux techno.
De plus on a aucune idée de la résolution native utilisée lorsque l’on choisi parmi les différentes qualité. (quand je met en 4k, je ne sais pas si la résolution d’origine est du 2k, 1080, 720 ou autre…) Je préfère baisser les réglage ou la résolution et je n’utilise ces options qu’en dernier recours si ma machine ne suis pas avec un nombre correct de fps.
Il y a ça et là des tableaux de récap pour savoir quelle est la résolution d’entrée et de sortie en fonction du paramètre utilisé (Qualiy, Balanced, Performance, Ultra performance)
Par exemple (FSR 2.0) : (http://https://b2c-contenthub.com/wp-content/uploads/2023/10/Die-unterschiedlichen-Upscaling-Stufen-Presets-von-AMD-FSR.png?w=1200)
En gros tu as quelque chose comme ça (FSR et DLSS je crois) :
Quality preset[a] Scale factor[b] Render scale[c]
Quality 1.50x 66.7%
Balanced 1.70x 58.8%
Performance 2.00x 50.0%
Ultra Performance since 3.00x 33.3%
Edit : désolé pour le rendu, les commentaires, c’est pas fait pour les tableaux…
Merci, j’avais cherché ce genre d’info sans succès il y a quelque temps.
En fait tu peux connaître la résolution utilisée par le FSR. Amd donne des recommandations pour les différents niveau de FSR. Par exemple FSR Qualité c’est 75% de la résolution de départ.
Après les devs peuvent choisir autre chose.
Les jeux ajoutent parfois une ligne dans les options pour choisir le % de la résolution du FSR au lieu de proposer les différents modes Qualité, Balance, Performance ou Ultra performance. Dans ce cas là c’est toi qui choisit combien de % de la résolution de départ le FSR prend.
Grillé . Tu as les infos sur un blog d’Amd pour les %
Avec DLSS 2, j’avais des artefacts aussi sur cyberpunk en mode équilibré, notamment sur les lumières assez loin, en revanche en DLSS 3 avec le Path tracing c’est juste parfait ^^
AMD a du retard sur les cartes graphiques et leur possibilité. Le Ray Tracing, le path finding, c’est pour NVidia. J’ai vu une vidéo de comparaison sur le net entre Raster, RayTracing et Path Finding. Il y a globalement du mieux visuellement pour le path finding, mais pour les performances, c’est NVIDIA le gagnant. Intel est hors jeu.
AMD, c’est un bon rapport qualité-prix sur du rendu “traditionnel”. Ils ont mis quelques unités pour faire du ray-tracing/path finding, j’ai cru voir un truc équivalent au Tensor Core, mais juste pour la forme. A coté, NVidia, entre les RT core et les Tensor Core, ça bouffe de la place sur la puce (a priori, ça donne ça https://developer.nvidia.com/blog/nvidia-turing-architecture-in-depth/ et en détail sur un SM : https://developer-blogs.nvidia.com/wp-content/uploads/2018/09/image11.jpg ).
Je ne comprends pas comment ils sortent encore leurs images marketing truquées, chez moi en Local et sur Geforce Now, la différence de qualité est bien visible entre du natif / DLAA et le DLSS en qualité pour du 1440p.
Dommage pour l’exclusivité que vous avez manqué sur la Nintendo Switch
A une époque (fin 90), S3 travaillait sur des pilotes avec un changement de résolution dynamique si le framerate était trop lent.
Bon, chez eux, c’était encore pus buggué avec ça (leur cartes/pilotes avaient tendanc eà ne pas afficher toujours la bonne texture :) )
Les FSR et autres m’y ont fait penser.
Mais ça me fait penser à autre chose: le jeu en streaming. On peut peut-être faire le rendu et compresser en “basse” réso et passer le FSR côté client?
Ils devraient améliorer leur rapport perf/watt et les dev améliorer leurs optimisations. Ca ferait du bien à tout le monde et ça éviterait ces technos moisies. L’apprentissage coûte une fortune (à minima en énergie) et ça consomme aussi en local lors du rendu. Aucun intérêt.
Détrompe-toi. Je ne saurais dire pour le côté apprentissage chez Nvidia, mais du côté des utilisateurs, DLSS permet bien une économie d’énergie.
Un ami, très concerné par ces aspects en a fait l’expérience avec un wattmètre. Je n’ai plus les chiffres exacts en tête, mais la consommation de courant en DLSS est bien moindre que sans. Moins de consommation est aussi synonyme de moins de nuisances sonores de la part du GPU, c’est donc tout bénef !
Très intéressant comme retour d’expérience sur la conso avec DLSS, merci !
Je pourrais lui demander des chiffres plus précis, mais dans son cas, le choix était vite fait. Depuis, il est vraiment fan de cette solution. Qui plus est, d’une qualité graphique tout à fait respectable. On est loin de l’upscale parfois dégueulasse de certains DVD sur une TV 4K
Mon intuition ne vaut pas l’expérience, je m’attendais bien à un résultat dans le genre.
En effet, le but de ce genre de solution, c’est d’optimiser les ressources. L’idée derrière un supersampling, c’est que rendre une image en full résolution, c’est très couteux par rapport à faire un rendu à 66% (voir moins) et exécuter une solution d’upscaling de l’image sans altérer de trop l’expérience.
Maintenant, si tu passes de 12FPS à 60FPS comme @FraGG, tu peux potentiellement avoir plus de ressources utilisées (les tensor core qui n’étaient pas utilisés) cependant, tu peux libérer de la ressource (si les tensor core ou le Frame Rate deviennent limitants et le reste du pipeline graphique traditionnel se tournent les pouces une partie du temps). Mais dans tous les cas, tu seras surement plus performant qu’un rendu natif à 60FPS (qui demanderait 5 fois la puissance initiale, soit, en faisant l’hypothèse d’une relation linéaire entre puissance et consommation, 5 fois plus de consommation).
Mais qu’elle serait la consommation si les constructeurs se focalisaient plus sur l’optimisation (de l’archi, des drivers etc…) et si les devs aussi passaient plus de temps à optimiser plutôt qu’à se reposer sur le DLSS pour (plus ou moins artificiellement) augmenter les perfs ?
Je suis assez d’accord, mais mécaniquement, il est logique que plus les jeux deviennent beaux, riches, plus ils consomment.
Prenons l’exemple d’Alan Wake 2 : il est très gourmand, pas tant parce qu’il est mal optimisé, mais parce qu’il utilise des technologies (très) gourmandes en ressources : Mesh Shading et Path Tracing, en particulier.
Contre-exemple : Cities Skylines 2. Très gourmand en particulier parce qu’il est très mal optimisé et les développeurs ont déjà annoncé qu’ils allaient sérieusement s’atteler à la tâche.
Maintenant, imaginons que les développeurs sortent des jeux super optimisés, le DLSS n’en perdrait pas moins d’intérêt : avoir une définition/fréquence d’images supérieure avec moins de ressources utilisées
En tout cas la Frame Generation c’est bluffant… Quand on tourne à 12fps dans certains endroit sans dans Alan Wake 2 et qu’on l’active et qu’on monte à 60fps ça tiens de la magie !
Je serais curieux de voir ce que tu propose comme optimisation. A mon avis, la plupart des jeux sont déjà bien optimisés, peut-être pas “à fond”, mais s’ils le faisaient “à fond” pour chaque architecture et type de config, les jeux ne coûteraient pas le même prix…
Et maintenant mon exemple: et si on streamait à 30 FPS pour sortir du 60, on gagnerait énormément en débit pour streamer des jeux… Je pense qu’au-delà de ce qu’on voit actuellement, le jeu en streaming est une application à venir pour ces algos.
Et que celui qui fera l’algo le plus intéressant/applicable remportera un futur marché: celui des cartes graphiques côté serveur, des serveurs de jeux chez les FAI, et des royalties dans les TV et box des FAI…
Ca commence vraiment à devenir laçant (et agaçant) d’entendre sans arrêt dire que le problème provient d’un manque d’optimisation.
Je suis développeur depuis bientôt 20 ans, qui plus est dans le monde embarqué avec des ressources assez faibles, et il faut arrêter de croire que l’optimisation est la solution à tous les problèmes.
Un logiciel, correctement conçu, avec des ingés qui connaissent leur travail, sans pour autant être des Einstein, produisent déjà un code de bonne qualité. Et une forte optimisation ne fera gagner que quelques % de performances (et c’est souvent le jeu des vases communicants : j’optimise la consommation CPU, mais c’est la consommation mémoire qui augmente).
Il faut sérieusement arrêter de croire que le code c’est de la magie, et que par un petit tour d’optimisation on divise par 2 la consommation de ressources.
A partir du moment où une fonctionnalité est rajoutée à un soft, peut importe le niveau d’optimisation du code, il en coutera forcément des performances.
Comme disait un vieux prof que j’avais à la fac “l’instruction la plus rapide est celle qui n’existe pas”.
Et oui rajouter des fonctions, de la qualité graphiques, etc, ça a un cout côté performance.
Alors moi ça fait 15 ans que je suis développeur, mais pas dans l’embarqué. Ben la plupart du code que j’ai vu, je peux te dire qu’il est vraiment pas optimisé. Ni dans l’algorithmique, ni dans l’architecture.
Regarde ce que Microsoft à fait comme bond entre .NET 4.8 et .NET 6. Et entre .NET 6 et .NET 8. Des gains, il y en a, c’est pas quelques %, des fois c’est plus de 50%.
Je suis dev embarqué depuis près de 20 ans également et je confirme que dans ce domaine, on a plus qu’intérêts de faire de code optimisé de base.
Je te rejoins sur ce point pour faire également du Back/Front-End depuis un moment et j’ai souvenir de codes abominables fait avec les pieds qu’il fallait reprendre intégralement
Par contre j’ai l’impression que ces devs du dimanche ont basculé dans le dev mobile
Quand on voit de plus en plus d’apps mobiles bogguées sans compter les mises à jours à répétitions sans évolutions
ce qui devient tellement la norme que les users pensent que si ce n’est pas le cas c’est que c’est une app de me*de…
Par contre l’excuse des maj pour corrections des failles de sécurités, ça a le dos large