DLSS dans Doom Eternal, bientôt dans Battlefield 2042, des évolutions en approche

DLSS dans Doom Eternal, bientôt dans Battlefield 2042, des évolutions en approche

Vivement DLSS 3.0

Avatar de l'auteur

David Legrand

Publié dansHardware

01/07/2021
10
DLSS dans Doom Eternal, bientôt dans Battlefield 2042, des évolutions en approche

Alors qu'AMD a déployé son FSR dans plusieurs jeux il y a quelques jours, NVIDIA continue d'enfoncer le clou autour de sa technologie DLSS. Elle gagne un nombre croissant de jeux et prépare des améliorations techniques.

Comme prévu, DLSS est disponible dans Doom Eternal depuis le 29 juin, accompagné du ray tracing (Vulkan). Ces évolutions font partie de la Next Gen Update 6 publiée par Bethesda il y a quelques jours. Une FAQ est disponible ici.

NVIDIA a publié de nombreuses captures permettant de voir les améliorations graphiques, évoquant les gains de performances. Pour en profiter au mieux, il faut les pilotes 471.11 publiés il y a quelques jours. AMD a fait de même pour ses Radeon avec les pilotes 21.6.2, les RX 6000 pouvant profiter du ray tracing dans Doom Eternal.

Autre bonne nouvelle du côté des GeForce : Battlefield 2042 va intégrer NVIDIA DLSS et Reflex. Ici aussi on pourra donc profiter de meilleures performances, mais aussi d'une latence réduite dans certaines circonstances. Le constructeur espère sans doute multiplier les annonces de ce genre avec EA à l'avenir. 

Enfin, on apprend via la découverte d'un utilisateur sur Reddit que la documentation de l'Unreal Engine évoque un nouveau mode de fonctionnement pour DLSS : Ultra qualité. Elle ne devrait être proposée que dans une prochaine mise à jour de la technologie, celle déployée actuellement avec le moteur est la 2.2.9 (2.2.6 dans les derniers jeux).

Unreal Engine DLSS Ultra Qualité

 

10
Avatar de l'auteur

Écrit par David Legrand

Tiens, en parlant de ça :

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

Avec neutralité, sans neutralité

16:58 ÉcoWeb 1
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Crypto influenceurs

16:41 Éco 2
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Ça en fait des démarrage de DeLorean

14:45 Science 0

Sommaire de l'article

Introduction

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 1
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 2
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 0
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 43

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 0
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 20
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 14

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 72
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 6

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

#Flock a sa propre vision de l’inclusion

Flock 25
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

44
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 20
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 21
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 14
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 6

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 16

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 16
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 35
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 53
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 11

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

MIA : l’IA d’enseignement de Gabriel Attal pour faire oublier le classement PISA

IASociété 62

Une main sur laquelle est collée une étiquette où est écrit "human".

AI Act : des inquiétudes de l’impact de la position française sur les droits humains

DroitIA 1

Un tiroir montrant de nombreuses fiches voire fichiers

Une centaine d’ONG dénonce l’expansion du fichier paneuropéen biométrique EURODAC

DroitSécu 0

WhatsApp

Meta coupe le lien entre Instagram et Messenger

Soft 3

Nuage (pour le cloud) avec de la foudre

Cloud : Amazon rejoint Google dans l’enquête de la CMA sur les pratiques de Microsoft

DroitWeb 0

Des billets volent dans les airs.

Mistral AI s’apprête à lever 450 millions d’euros auprès de NVIDIA et a16z

ÉcoIA 0

Commentaires (10)


horrus
Il y a 2 ans

bonjour,



Autant les 2 solutions (DLSS et FSR) sont, je crois, utiles aux joueurs de fps et moba, autant j espère qu elles resteront désactivables pour les joueurs de mmorpg( hors instances en groupes ), je serais dégouté de ne plus pouvoir apprécier les décors de guild wars 2 dans leurs moindres détails…


tazvld Abonné
Il y a 2 ans

Je pense qu’il y a confusion sur plusieurs point.



Tout d’abord, DLSS et FSR sont des options qui vont se trouver au niveau de l’anti-aliasing (dans le principe, c’est même proche) dans le menu d’option. Ce sont 2 technique d’upscaling qui vont pouvoir être réalisé à des moment particulier de la production de l’image avec des information qui sont dispo à ce moment là.



Le FSR et le DLSS permettent de tirer beaucoup plus d’un matos qui aurait galéré à sortir un truc en résolution native avec un fréquence décente et des options graphiques souhaitée.



Le FSR est basé sur des techniques assez classique d’upscaling avec du “sharpening” et personnellement, la qualité ne m’a pas vraiment impressionné. Cependant, c’est un excellent compromis, en particulier pour les consoles ou les GPU pas assez puissance, là où le matos est incapable de balancer une résolution native a 60FPS (ou 30FPS) avec des méthode classique, au lieu de balancer une résolution plus faible dans la prise HDMI et laisser la télé faire un upscaling dégeux, ça permet d’avoir un upscaling de bien meilleurs qualité et en plus un HUD en véritable résolution native.



Pour le DLSS, la technique est très différente et utilise un réseau de neurone afin d’interpréter et de redessiner l’image à une résolution plus importante. Le DLSS 1 n’était pas terrible et a fait assez mauvaise presse. Cependant la technique étant encore pas totalement maitrisé, il y a un grosse marge d’amélioration qui est arrivé avec le DLSS 2.



Ainsi, le DLSS 2 est très bon. Il va produire une image que beaucoup considéreront comme meilleur que la résolution native. En effet, le DLSS a tendance à renforcer des détails (ici et ici par exemple, le DLSS va donner des brin d’herbe plus net). Le DLSS est donc loin d’être une mauvaise option, il permet de décharger la carte graphique qui pourrait alors faire des rendu plus complexe tout en gardant une qualité d’image très bonne.


horrus
Il y a 2 ans

bonjour,
oui je savais que sur le principe général les DLSS/FSR sont “ du super-antialiasing “, mais je me pose une question : c est bien les Tensor cores qui gèrent le raytracing + le dlss ?
Si oui , est ce que le nouveau DLSS Quality va va pas se faire au détriment du raytracing ?


Arka_Voltchek Abonné
Il y a 2 ans

Nope, les tensor core gerent le dlss, le ray-tracing est géré par les RT core.


tazvld Abonné
Il y a 2 ans

Pour l’instant ça semble être ça, mais ça peut évoluer.



En effet, le plus gros calculs de ray-tracing est fait par les RT-Core (ils sont en charge de dire si un rayon touche quelque chose et si oui quoi et où). Cependant, rendu brut par Ray tracing (qui va généralement en complément à un rendu classique) est très bruité. Ce bruit est normal et existe même dans des images qui ne sont pas rendu en temps direct, mais ça nécessite de passer par un phase de débruitage (denoising).



A priori, pour l’instant dans les jeu vidéo, ce débruitage est fait par par des algo classique via les cuda core. Cependant, les réseau de neurone, et donc les tensor core, sont très efficaces pour ce genre de chose. Ainsi, NVidia propose des algo de debruitage (OptiX AI denoising) utilisant les tensor core qui peuvent être utilisé dans des logiciel comme blender.


David_L Abonné
Il y a 2 ans

Chez NVIDIA le denoising est fait sur les tensor cores dans le JV (comme dans les apps de rendu 3D)


horrus
Il y a 2 ans

bonjour,
merci pour les informations ( mea-culpa, j ai confondu RT-core et Tensor-core je croyais que c était la même partie du gpu)


tazvld Abonné
Il y a 2 ans

J’étais tombé sur des présentation qui semblait dire le contraire, mais ils étaient assez daté. Ca me semble en effet assez bizarre que NVidia ne profite pas de cette possibilité alors qu’ils ont le matos et sont les seuls à pouvoir le proposer.


Lorendil
Il y a 2 ans

Tu n’es pas vraiment à jour. Ce que tu dis n’est plus valable depuis le DLSS 2.0. Avant j’étais le premier à cracher sur ce genre de technique qui réduit la qualité (mais officiellement tu reste en “max settings” pour te la péter). Le DLSS 1.0 était flou et destructeur. Le DLSS 2.0 est plus performant (plus d’images par seconde), mais surtout plus beau que le natif (en mode qualité). Oui, théoriquement c’est aberrant. Moi aussi je râlais, puis j’ai regardé, et j’ai constaté la différence entre la théorie et la pratique…



https://www.youtube.com/watch?v=KGG0R7t-UjI



https://www.youtube.com/watch?v=IMi3JpNBQeM


David_L Abonné
Il y a 2 ans

Surtout que l’intérêt que beaucoup oublient en pratique, c’est que ça permet de monter les réglages graphiques à performances identiques. Et donc d’avoir plus de détails. Même si tu perds un peu sur certains points (notamment avec FSR qui peut vite ajouter du flou), tu gagnes au final en qualité d’image.