DLSS, FSR, XeSS, et maintenant MetalFX, mais qu’est-ce donc ?

DLSS, FSR, XeSS, et maintenant MetalFX, mais qu’est-ce donc ?

Nous avons posé la question à NVIDIA, ils nous ont éclairés en Ray Tracing

Avatar de l'auteur

Cyril Trigoust

Publié dansLogiciel

07/11/2023
22
DLSS, FSR, XeSS, et maintenant MetalFX, mais qu’est-ce donc ?

Alors que le DLSS 3.5 fait parler de lui sur la sortie miraculeuse du Cyberpunk 2077 2.0 (=4154 ?), qu’AMD rattrape son retard avec le FSR 3.0, qu’Intel confirme être dans la course avec son XeSS, Apple prend pour cible ces constructeurs avec une balle chemisée métal, MetalFX pour être plus précis. On termine avec une interview de Stéphane Quentin de NVIDIA.

Intéressons-nous d’abord à la face émergée de l’iceberg ; qu’est-ce que le Super Sampling ? Si vous êtes un tant soit peu « gameur » vous avez entendu parler de ces technologies capables de donner un coup de turbo au nombre d’images par seconde affichées dans un jeu.

Pour arriver à un tel miracle, les cartes graphiques calculent le rendu dans une définition inférieure, par exemple du 720p, puis par une dose d’intelligence artificielle, d’algorithmes et (pour certaines) de transistors, affichent du 1080p, 2K ou 4K a priori sans altérer la qualité graphique. C’est en quelque sorte l’upscaling de votre téléviseur, mais appliqué à une image calculée en temps réel, ce qui est un brin plus velu.

Voilà pour les généralités, passons maintenant aux cas individuels.

Le Deep Learning Super Sampling au secours du Ray tracing

La suite est réservée à nos abonnés.

Déjà abonné ? Se connecter

Abonnez-vous
22
Avatar de l'auteur

Écrit par Cyril Trigoust

Tiens, en parlant de ça :

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

652e édition des LIDD : Liens Intelligents Du Dimanche

Et bonne nuit les petits

00:04 Next 1
dessin de Flock

#Flock distribue des mandales tous azimuts

13:40 Flock 11
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

11:47 Next 26

Sommaire de l'article

Introduction

Le Deep Learning Super Sampling au secours du Ray tracing

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

652e édition des LIDD : Liens Intelligents Du Dimanche

Next 1
dessin de Flock

#Flock distribue des mandales tous azimuts

Flock 11
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

Next 26
Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Hard 18

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

IA 6
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

Soft 32
Une petite fille en train d'apprendre à programmer et hacker logiciels et appareils électroniques

Un roman graphique explique les logiciels libres aux enfants

SoftSociété 20
Nouveautés pour Messenger

Meta lance (enfin) le chiffrement de bout en bout de Messenger, entre autres

Socials 5

#LeBrief : cloud européen, OSIRIS-REx a frôlée la catastrophe, CPU AMD Ryzen 8040

Windows en 2024 : beaucoup d’IA, mais pas forcément un « 12 »

Soft 21
Einstein avec des qubits en arrière plan

Informatique quantique, qubits : avez-vous les bases ?

HardScience 9
Notifications iPhone

Surveillance des notifications : un sénateur américain demande la fin du secret

DroitSécu 17

En ligne, les promos foireuses restent d’actualité

DroitWeb 19

#LeBrief : modalité des amendes RGPD, cyberattaque agricole, hallucinations d’Amazon Q, 25 ans d’ISS

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 29
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 10
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 6
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 75

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 3
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 23
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 22

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 102
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 7

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (22)


JohnHostfil Abonné
Le 07/11/2023 à 12h49

J’ai déjà testé DLLS et FSR mais les réglages dans les jeux sont opaques avec des résultats pas toujours au top comme des artefacts sur DLSS et du flou sur FSR et une latence très désagréable sur les deux techno.



De plus on a aucune idée de la résolution native utilisée lorsque l’on choisi parmi les différentes qualité. (quand je met en 4k, je ne sais pas si la résolution d’origine est du 2k, 1080, 720 ou autre…) Je préfère baisser les réglage ou la résolution et je n’utilise ces options qu’en dernier recours si ma machine ne suis pas avec un nombre correct de fps.


dante_elysium Abonné
Le 07/11/2023 à 15h06

Il y a ça et là des tableaux de récap pour savoir quelle est la résolution d’entrée et de sortie en fonction du paramètre utilisé (Qualiy, Balanced, Performance, Ultra performance)



Par exemple (FSR 2.0) : (http://https://b2c-contenthub.com/wp-content/uploads/2023/10/Die-unterschiedlichen-Upscaling-Stufen-Presets-von-AMD-FSR.png?w=1200)



En gros tu as quelque chose comme ça (FSR et DLSS je crois) :
Quality preset[a] Scale factor[b] Render scale[c]
Quality 1.50x 66.7%
Balanced 1.70x 58.8%
Performance 2.00x 50.0%
Ultra Performance since 3.00x 33.3%



Edit : désolé pour le rendu, les commentaires, c’est pas fait pour les tableaux… :D


JohnHostfil Abonné
Le 08/11/2023 à 05h58

dante_elysium

Il y a ça et là des tableaux de récap pour savoir quelle est la résolution d’entrée et de sortie en fonction du paramètre utilisé (Qualiy, Balanced, Performance, Ultra performance)

Par exemple (FSR 2.0) : (http://https://b2c-contenthub.com/wp-content/uploads/2023/10/Die-unterschiedlichen-Upscaling-Stufen-Presets-von-AMD-FSR.png?w=1200)

En gros tu as quelque chose comme ça (FSR et DLSS je crois) : Quality preset[a] Scale factor[b] Render scale[c] Quality 1.50x 66.7% Balanced 1.70x 58.8% Performance 2.00x 50.0% Ultra Performance since 3.00x 33.3%

Edit : désolé pour le rendu, les commentaires, c’est pas fait pour les tableaux… :D

Merci, j’avais cherché ce genre d’info sans succès il y a quelque temps. :inpactitude:


Hebus Abonné
Le 07/11/2023 à 15h25

En fait tu peux connaître la résolution utilisée par le FSR. Amd donne des recommandations pour les différents niveau de FSR. Par exemple FSR Qualité c’est 75% de la résolution de départ.
Après les devs peuvent choisir autre chose.
Les jeux ajoutent parfois une ligne dans les options pour choisir le % de la résolution du FSR au lieu de proposer les différents modes Qualité, Balance, Performance ou Ultra performance. Dans ce cas là c’est toi qui choisit combien de % de la résolution de départ le FSR prend.



Grillé . Tu as les infos sur un blog d’Amd pour les %


eglyn Abonné
Le 07/11/2023 à 19h47

Avec DLSS 2, j’avais des artefacts aussi sur cyberpunk en mode équilibré, notamment sur les lumières assez loin, en revanche en DLSS 3 avec le Path tracing c’est juste parfait ^^


spidermoon Abonné
Le 07/11/2023 à 13h48

AMD a du retard sur les cartes graphiques et leur possibilité. Le Ray Tracing, le path finding, c’est pour NVidia. J’ai vu une vidéo de comparaison sur le net entre Raster, RayTracing et Path Finding. Il y a globalement du mieux visuellement pour le path finding, mais pour les performances, c’est NVIDIA le gagnant. Intel est hors jeu.


tazvld Abonné
Le 07/11/2023 à 16h50

AMD, c’est un bon rapport qualité-prix sur du rendu “traditionnel”. Ils ont mis quelques unités pour faire du ray-tracing/path finding, j’ai cru voir un truc équivalent au Tensor Core, mais juste pour la forme. A coté, NVidia, entre les RT core et les Tensor Core, ça bouffe de la place sur la puce (a priori, ça donne ça https://developer.nvidia.com/blog/nvidia-turing-architecture-in-depth/ et en détail sur un SM : https://developer-blogs.nvidia.com/wp-content/uploads/2018/09/image11.jpg ).


game1337 Abonné
Le 07/11/2023 à 15h00

Je ne comprends pas comment ils sortent encore leurs images marketing truquées, chez moi en Local et sur Geforce Now, la différence de qualité est bien visible entre du natif / DLAA et le DLSS en qualité pour du 1440p.


pamputt Abonné
Le 07/11/2023 à 16h43

Dommage pour l’exclusivité que vous avez manqué sur la Nintendo Switch :incline:


Wosgien Abonné
Le 07/11/2023 à 19h45

A une époque (fin 90), S3 travaillait sur des pilotes avec un changement de résolution dynamique si le framerate était trop lent.
Bon, chez eux, c’était encore pus buggué avec ça (leur cartes/pilotes avaient tendanc eà ne pas afficher toujours la bonne texture :) )



Les FSR et autres m’y ont fait penser.



Mais ça me fait penser à autre chose: le jeu en streaming. On peut peut-être faire le rendu et compresser en “basse” réso et passer le FSR côté client?


dada051 Abonné
Le 07/11/2023 à 21h39

Ils devraient améliorer leur rapport perf/watt et les dev améliorer leurs optimisations. Ca ferait du bien à tout le monde et ça éviterait ces technos moisies. L’apprentissage coûte une fortune (à minima en énergie) et ça consomme aussi en local lors du rendu. Aucun intérêt.


Vekin Abonné
Le 08/11/2023 à 09h04

Détrompe-toi. Je ne saurais dire pour le côté apprentissage chez Nvidia, mais du côté des utilisateurs, DLSS permet bien une économie d’énergie.



Un ami, très concerné par ces aspects en a fait l’expérience avec un wattmètre. Je n’ai plus les chiffres exacts en tête, mais la consommation de courant en DLSS est bien moindre que sans. Moins de consommation est aussi synonyme de moins de nuisances sonores de la part du GPU, c’est donc tout bénef !


Tommos Abonné
Le 08/11/2023 à 12h18

Vekin

Détrompe-toi. Je ne saurais dire pour le côté apprentissage chez Nvidia, mais du côté des utilisateurs, DLSS permet bien une économie d’énergie.

Un ami, très concerné par ces aspects en a fait l’expérience avec un wattmètre. Je n’ai plus les chiffres exacts en tête, mais la consommation de courant en DLSS est bien moindre que sans. Moins de consommation est aussi synonyme de moins de nuisances sonores de la part du GPU, c’est donc tout bénef !

Très intéressant comme retour d’expérience sur la conso avec DLSS, merci ! :yes:


Vekin Abonné
Le 08/11/2023 à 13h46

Tommos

Très intéressant comme retour d’expérience sur la conso avec DLSS, merci ! :yes:

Je pourrais lui demander des chiffres plus précis, mais dans son cas, le choix était vite fait. Depuis, il est vraiment fan de cette solution. Qui plus est, d’une qualité graphique tout à fait respectable. On est loin de l’upscale parfois dégueulasse de certains DVD sur une TV 4K :D


tazvld Abonné
Le 08/11/2023 à 13h05

Vekin

Détrompe-toi. Je ne saurais dire pour le côté apprentissage chez Nvidia, mais du côté des utilisateurs, DLSS permet bien une économie d’énergie.

Un ami, très concerné par ces aspects en a fait l’expérience avec un wattmètre. Je n’ai plus les chiffres exacts en tête, mais la consommation de courant en DLSS est bien moindre que sans. Moins de consommation est aussi synonyme de moins de nuisances sonores de la part du GPU, c’est donc tout bénef !

Mon intuition ne vaut pas l’expérience, je m’attendais bien à un résultat dans le genre.



En effet, le but de ce genre de solution, c’est d’optimiser les ressources. L’idée derrière un supersampling, c’est que rendre une image en full résolution, c’est très couteux par rapport à faire un rendu à 66% (voir moins) et exécuter une solution d’upscaling de l’image sans altérer de trop l’expérience.



Maintenant, si tu passes de 12FPS à 60FPS comme @FraGG, tu peux potentiellement avoir plus de ressources utilisées (les tensor core qui n’étaient pas utilisés) cependant, tu peux libérer de la ressource (si les tensor core ou le Frame Rate deviennent limitants et le reste du pipeline graphique traditionnel se tournent les pouces une partie du temps). Mais dans tous les cas, tu seras surement plus performant qu’un rendu natif à 60FPS (qui demanderait 5 fois la puissance initiale, soit, en faisant l’hypothèse d’une relation linéaire entre puissance et consommation, 5 fois plus de consommation).


dada051 Abonné
Le 08/11/2023 à 15h19

Vekin

Détrompe-toi. Je ne saurais dire pour le côté apprentissage chez Nvidia, mais du côté des utilisateurs, DLSS permet bien une économie d’énergie.

Un ami, très concerné par ces aspects en a fait l’expérience avec un wattmètre. Je n’ai plus les chiffres exacts en tête, mais la consommation de courant en DLSS est bien moindre que sans. Moins de consommation est aussi synonyme de moins de nuisances sonores de la part du GPU, c’est donc tout bénef !

Mais qu’elle serait la consommation si les constructeurs se focalisaient plus sur l’optimisation (de l’archi, des drivers etc…) et si les devs aussi passaient plus de temps à optimiser plutôt qu’à se reposer sur le DLSS pour (plus ou moins artificiellement) augmenter les perfs ?


Vekin Abonné
Le 08/11/2023 à 15h23

dada051

Mais qu’elle serait la consommation si les constructeurs se focalisaient plus sur l’optimisation (de l’archi, des drivers etc…) et si les devs aussi passaient plus de temps à optimiser plutôt qu’à se reposer sur le DLSS pour (plus ou moins artificiellement) augmenter les perfs ?

Je suis assez d’accord, mais mécaniquement, il est logique que plus les jeux deviennent beaux, riches, plus ils consomment.



Prenons l’exemple d’Alan Wake 2 : il est très gourmand, pas tant parce qu’il est mal optimisé, mais parce qu’il utilise des technologies (très) gourmandes en ressources : Mesh Shading et Path Tracing, en particulier.



Contre-exemple : Cities Skylines 2. Très gourmand en particulier parce qu’il est très mal optimisé et les développeurs ont déjà annoncé qu’ils allaient sérieusement s’atteler à la tâche.



Maintenant, imaginons que les développeurs sortent des jeux super optimisés, le DLSS n’en perdrait pas moins d’intérêt : avoir une définition/fréquence d’images supérieure avec moins de ressources utilisées :8


FraGG Abonné
Le 08/11/2023 à 05h57

(reply:2163867:Wosgien) Ce genre de techno c’est souvent utilisé maintenant dans les jeux gourmands, ils changent la résolution de certaines parties du rendu écran pour ne pas bouffer trop les FPS.




En tout cas la Frame Generation c’est bluffant… Quand on tourne à 12fps dans certains endroit sans dans Alan Wake 2 et qu’on l’active et qu’on monte à 60fps ça tiens de la magie !


Wosgien Abonné
Le 08/11/2023 à 16h23

dada051 a dit:




Je serais curieux de voir ce que tu propose comme optimisation. A mon avis, la plupart des jeux sont déjà bien optimisés, peut-être pas “à fond”, mais s’ils le faisaient “à fond” pour chaque architecture et type de config, les jeux ne coûteraient pas le même prix…




Vekin a dit:


Maintenant, imaginons que les développeurs sortent des jeux super optimisés, le DLSS n’en perdrait pas moins d’intérêt : avoir une définition/fréquence d’images supérieure avec moins de ressources utilisées :8




Et maintenant mon exemple: et si on streamait à 30 FPS pour sortir du 60, on gagnerait énormément en débit pour streamer des jeux… Je pense qu’au-delà de ce qu’on voit actuellement, le jeu en streaming est une application à venir pour ces algos.
Et que celui qui fera l’algo le plus intéressant/applicable remportera un futur marché: celui des cartes graphiques côté serveur, des serveurs de jeux chez les FAI, et des royalties dans les TV et box des FAI…


tomy100 Abonné
Le 10/11/2023 à 17h45

dada051 a dit:


Ils devraient améliorer leur rapport perf/watt et les dev améliorer leurs optimisations. Ca ferait du bien à tout le monde et ça éviterait ces technos moisies. L’apprentissage coûte une fortune (à minima en énergie) et ça consomme aussi en local lors du rendu. Aucun intérêt.




Ca commence vraiment à devenir laçant (et agaçant) d’entendre sans arrêt dire que le problème provient d’un manque d’optimisation.
Je suis développeur depuis bientôt 20 ans, qui plus est dans le monde embarqué avec des ressources assez faibles, et il faut arrêter de croire que l’optimisation est la solution à tous les problèmes.
Un logiciel, correctement conçu, avec des ingés qui connaissent leur travail, sans pour autant être des Einstein, produisent déjà un code de bonne qualité. Et une forte optimisation ne fera gagner que quelques % de performances (et c’est souvent le jeu des vases communicants : j’optimise la consommation CPU, mais c’est la consommation mémoire qui augmente).
Il faut sérieusement arrêter de croire que le code c’est de la magie, et que par un petit tour d’optimisation on divise par 2 la consommation de ressources.



A partir du moment où une fonctionnalité est rajoutée à un soft, peut importe le niveau d’optimisation du code, il en coutera forcément des performances.
Comme disait un vieux prof que j’avais à la fac “l’instruction la plus rapide est celle qui n’existe pas”.
Et oui rajouter des fonctions, de la qualité graphiques, etc, ça a un cout côté performance.


dada051 Abonné
Le 11/11/2023 à 08h44

Alors moi ça fait 15 ans que je suis développeur, mais pas dans l’embarqué. Ben la plupart du code que j’ai vu, je peux te dire qu’il est vraiment pas optimisé. Ni dans l’algorithmique, ni dans l’architecture.



Regarde ce que Microsoft à fait comme bond entre .NET 4.8 et .NET 6. Et entre .NET 6 et .NET 8. Des gains, il y en a, c’est pas quelques %, des fois c’est plus de 50%.


Spike Abonné
Le 11/11/2023 à 11h17

Je suis dev embarqué depuis près de 20 ans également et je confirme que dans ce domaine, on a plus qu’intérêts de faire de code optimisé de base.



Je te rejoins sur ce point pour faire également du Back/Front-End depuis un moment et j’ai souvenir de codes abominables fait avec les pieds qu’il fallait reprendre intégralement :sm:



Par contre j’ai l’impression que ces devs du dimanche ont basculé dans le dev mobile :cartonrouge: Quand on voit de plus en plus d’apps mobiles bogguées sans compter les mises à jours à répétitions sans évolutions :frown: ce qui devient tellement la norme que les users pensent que si ce n’est pas le cas c’est que c’est une app de me*de…



Par contre l’excuse des maj pour corrections des failles de sécurités, ça a le dos large :cartonrouge: