Le Deep Learning Super Sampling (DLSS) débarque en bêta dans FF XV Windows Edition
Le 13 décembre 2018 à 09h33
1 min
Société numérique
Société
Le jeu est pour le moment le seul à exploiter cette technologie promise sur une vingtaine de titres en septembre. Pour rappel, il s'agit d'entraîner une IA à régler les soucis d'aliasing dans un jeu précis, puis d'utiliser le modèle qui en résulte en temps réel afin d'offrir un meilleur ratio résultat/performances.
NVIDIA utilise les Tensor Core de son architecture Turing, présents au sein des GeForce RTX. FF XV Windows Edition avait ainsi déjà été utilisé comme démonstration pour la presse, à travers son outil de mesure de performances.
Désormais, le jeu complet bénéficie lui aussi du DLSS. Le tout est néanmoins annoncé en bêta, sans doute pour parer à d'éventuels bugs qui pourraient survenir, comme ce fût le cas pour le ray tracing dans Battlefield V.
Pour tester cette fonctionnalité, il vous faudra le dernier patch du jeu, ainsi que les pilotes 417.35 qui viennent d'être mis en ligne. Quelques bugs sont corrigés au passage.
Le 13 décembre 2018 à 09h33
Commentaires (20)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 13/12/2018 à 21h03
les lignes sont un peu plus marquees et ca me semble un peu plus net, mais ca ne casse pas 3 pattes a un crapaud
Le 14/12/2018 à 09h11
ok merci pour les infos
Le 15/12/2018 à 11h21
Apparemment les premier test sont encourageant, mais j’ai envie de dire qu’il y avait plutôt intérêt, une part non négligeable du coût des RTX vient des tensor core qui ne peuvent servir qu’a cela. Mais même si je n’ai pas trop de reproche sur la technique en elle même c’est d’avantage son implémentation qui me semble bancale, comprenez que ça à prit au moins 3 mois à square pour nous en sortir une bêta et sur un jeu sorti il y a de cela un moment, je ne suis pas sûr que ce genre de traitement puisse être fait sur une copie en cours de dev et si il ne faut pas tout refaire à chaque patch sur le perfs.
En bref les premiers signaux ne sont pas encourageant et j’ai envie de dire tant mieux car le DLSS n’est au final à mes yeux qu’une manœuvre un peu bancale visant à exploiter des tensor core hérité des design Turing des quadro, qui à mes yeux n’aurait jamais dû finir dans un GPU grand public et qu’on ne vera peut être plus dans les futures cartes de verts.
Plus qu’a voir les futures implémentation mais comme pour gameworks je doute que ça finisse dans beaucoup de jeux (pareil pour le RTX)
Le 13/12/2018 à 10h26
🤔, c’est moi où à part la luminosité des couleurs, il n’y a aucune différence entre les deux images?! " />
En tout cas, s’il y en a, ça ne me saute pas aux yeux, donc pas utile pour moi…
Le 13/12/2018 à 10h27
La question que je me pose, est si le rendu sera différent en fonction des bécanes ?
Le 13/12/2018 à 10h45
Le 13/12/2018 à 10h47
Le 13/12/2018 à 10h51
Moi, je vois des différences au niveau des contours qui sont plus précis (moins de flou sur les lignes courbes avec le DLSS) et les textures sur le pont du bateau sont mieux définies avec le DLSS. L’image semble cependant avoir été embellie avec plus de contraste et de lumière sur l’image avec le DLSS.
Sinon, on pourrait reprocher nVidia de ne pas comparer avec et sans DLSS sur la même carte graphique, histoire qu’on voie réellement ce que ça apporte, mais bon, faut bien qu’ils trouvent des arguments pour vendre leur dernière carte.
Le 13/12/2018 à 11h50
Les différences ne sont pas tellement à voir sur l’image, mais dans les
performances : les FPS (affichés en haut à gauche de chaque image) passent de 41 à 78, ce qui n’est pas négligeable ! Si tant est que c’est c’est pas du pipeau ..
Le 13/12/2018 à 12h08
Le 13/12/2018 à 12h12
Le 13/12/2018 à 12h33
Alors, d’après l’article de tom’s Hardware, le DLSS serait en faite un upscaling de 150% réalisé par l’algo.
L’upscaling semble cependant de très bonne qualité, l’algo “comprend l’image” et “sait ce qu’il faut rajouter” (c’est tout le boulot d’apprentissage). de manière général, le DLSS a des avantages et des défauts et c’est kif-kif à un TAA personnellement.
Mais derrière, c’est surtout un gros gain de performance, l’image de base en 4k est en faite une image 2k et en 2k c’est une image 1080p. Du coup, gros gain de FPS.
Le 13/12/2018 à 13h37
Alors, je me permets de double poster pour expliquer l’aspect “intelligent” du DLSS.
En gros, imaginons un jeu vidéo où il n’y a que des cube des pyramides et des sphères. Le DLSS consiste à partir d’une séquence d’image en 2K de créer la dernière image en 4K avec un antialising.
Pour ce faire, le réseau de neurone a appris à reconnaître dans des images 2K de ce jeu ce qui est un cube, une pyramides et une sphère et d’en régénérer une version haute résolution sachant du coup que c’est une sphère, un cube ou une pyramide (ces 2 étapes sont fait en même temps). Durant l’apprentissage, le réseau doit s’approcher le plus d’un rendu qui a été calculé dans des conditions optimale (le jeu de données d’apprentissage étant préparer en amont, il n’y a pas de contrainte de faire un rendu temps-réel), une fois le rendu satisfaisant (généralement on s’arrête dès que le rendu commence à se dégradé lorsque l’on fait passé des données inconnu : le réseau commence à sur-apprendre des données d’apprentissage, il commence à apprendre par cœur ces données et plus à traiter le problème de manière générique), on fixe les paramètres et on distribue ce modèle (architecture du réseaux+valeurs de paramètres) pour ce jeu spécifiquement.
La force du DLSS, c’est qu’il vient avec une connaissance du jeu. L’anti-aliasing n’est pas un bête algo qui fait exactement le même calcule quelque soit l’objet, l’angle, la matières…
A priori, une séquence (il semblerait en effet que le DLSS travaille sur une séquence d’image et non sur une seul image) d’image en 2K complété d’une connaissance du jeu permet de réunir assez d’information pour générer une image 4K sans trop de perte.
Le 13/12/2018 à 13h38
Du coup ça marche plutôt bien " /> Gros gain de FPS et pas de différence visuelle
Le 13/12/2018 à 13h45
Alors au temps pour moi ! Si c’est au niveau des perfs (qualité égale pour performance demandé moindre), normal que je ne vois pas la diff. Le fps j’avais mis ça sur la CG différente, pas sur la techno " />
Le 13/12/2018 à 14h28
je ne connais pas les technos deep learning et autre, mais gagner en finesse de texture (cf. texture du pont du bateau) en passant d’un 2160p +TAA à un 1440p upscalé dlss, j’avoue que j’ai du mal
Le 13/12/2018 à 15h27
La qualité n’est pas égale au sens identique. Le DLSS va avoir des meilleurs rendu sur certains points et de moins bon sur d’autre. A ceci s’ajoute 2 problèmes :
Et sinon, niveau performance, l’autre avantage du DLSS, c’est qu’il ne se fait pas sur la même partie du GPU que le calcule du rendu à proprement parlé. Il est calculé sur les TPU (tensor process unit, la nouveauté principale des RTX selon moi), laissant les autres unités libres. Du coup la carte graphique peut lancer le calcule de la prochaine frame pendant que les TPU travaillent sur l’anti aliasing dans leur coin.
Le 13/12/2018 à 15h36
Le 13/12/2018 à 18h10
Ok je pensais que le dlss ne s’attaquait qu’à l’aliasing, pas à la qualité des textures.
Mais du coup j’imagine qu’il faut que NVIDIA ait accès à l’ensemble des modèles 3d et textures pour faire tourner ses algos de de deap learning dessus.
Le 13/12/2018 à 19h19
En gros, oui, c’est ça. Je cite cette interview:
“At this time, in order to use DLSS to its full potential, developers need to provide data to NVIDIA to continue to train the DLSS model. The process is fairly straightforward with NVIDIA handling the heavy lifting via its Saturn V supercomputing cluster.”
Mais j’ai l’impression quand même qu’ils prevoient que le DLSS soit assez solide pour faire un boulot correct de manière générique.
Il est potentiellement possible d’avoir par exemple assez de souplesse pour extrapoler des textures.
On peut même aller plus loin et le“style artistique” est quelque chose qu’un réseau de neurone est capable de reproduire sur d’autre images. Le principe est assez complexe mais le “style” est une information que les réseaux de neurones vous identifier et encoder à leur manière.