NVIDIA travaille sur des solutions pour obtenir du ray tracing à 240 ips
Ampere se prépare ?
Le 12 juin 2019 à 09h23
2 min
Hardware
Hardware
Si le Deep Learning Super Sampling (DLSS) est utilisé par NVIDIA en complément du ray tracing pour améliorer les performances dans les jeux, la société travaille à d'autres solutions pour aller plus loin : jusqu'à 240 ips.
Si le ray tracing fait son entrée dans les jeux vidéo, on ne peut pas dire que cela soit une partie de plaisir pour les cartes graphiques actuelles, même pour les plus puissantes GeForce RTX de NVIDIA avec accélération matérielle.
Le constructeur qui est récemment revenu sur les différentes implémentations, optimisation et les performances à attendre le confirme par ses propres chiffres. Il est encore rare de dépasser les 60 images par seconde de manière importante, il faut le plus souvent se reposer sur une solution complémentaire comme DLSS pour alléger la charge de calcul.
Pour rappel, cette technologie consiste dans sa version actuelle à calculer l'image dans une taille réduite, puis à l'extrapoler dans la définition de l'écran, sans aliasing. Pour que ce soit efficace, on utilise les Tensor Cores du GPU afin d'appliquer un modèle généré via un réseau de neurones maison, propre à chaque jeu.
Mais les équipes de recherche de NVIDIA ont d'autres idées pour effectuer un rendu en exploitant le ray tracing avec un bon débit d'images, en essayant de ne pas trop pénaliser sur la qualité. Elles visent désormais les 240 ips, ce que l'on apprend à travers une publication concernant le Temporally Dense Ray tracing.
Un site a été mis en ligne pour évoquer les différentes solutions et étapes explorées, comme un rendu partiel de l'image en réutilisant les données de la précédente, une technique déjà explorée pour le Temporal Anti-Aliasing (TAA). Il nécessite Firefox plutôt que Chrome pour fonctionner dans de bonnes conditions sur un écran à 240 Hz.
Il faudra maintenant attendre de voir si ces recherches aboutissent à une application concrète, dans les jeux ou les applications de rendu 3D pour un visionnage en temps réel par exemple. Cela pourrait également intéresser les constructeurs de consoles qui évoquent de manière croissante le ray tracing, malgré la puissance limitée de leurs produits.
Commentaires (16)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 12/06/2019 à 10h04
J’ai du mal à comprendre cet engouement pour le lancé de rayon. Le gros problème de cette techno, c’est que pour que ce soit réaliste, il faudrait lancer une infinité de rayons qui à chaque reflets réémettent une infinité de rayons, etc. Ce qui est évidemment, irréalisable même à long terme !
Donc aujourd’hui, on lance quelques rayons, et on extrapole aux polygones à proximité… ce qui donne un rendu moins bon que les méthodes éprouvées qui sont bien moins gourmandes.
Ca ne serait pas plus marketing que vraiment exploitable (du moins pour la lumière) ?
Le 12/06/2019 à 10h08
Ça va être la fête du hack cette histoire…
Le 12/06/2019 à 10h12
Sans aller jusqu’à l’extreme, ça produit quand meme des images vachement plus réalistes coté lumière. Y’a pas a tortiller…
L’objectif est simple, pour moi, c’est d’arriver à un niveau photoréaliste comme dans les films mais en temps réel et avec du matos standard (genre un PC à 1500 boules). Et ça a toujours été l’objectif de la 3D… On y arrive aujourd’hui très bien en précalculé avec des clusters de rendu mais le temps réel est une autre paire de manche au niveau matériel et encore plus avec un unique PC domestique
Le 12/06/2019 à 10h14
C’est pour ça que ça m’étonne qu’on en fasse tout un plat ! On est à des années de pouvoir faire un rendu 4K temps réelle avec lancé de rayon !
Le 12/06/2019 à 10h47
Non, en fait les rayons sont “lancés” à partir de la caméra et rebondissent de 1 à N fois. Avec déjà 2 rebonds on obtient de très bons résultats, largement meilleurs que ce que l’on sait faire avec des polygones. Il suffit donc de lancer autant de rayons qu’il y a de pixels sur ton écran par image. Ca semble déjà plus réaliste non ? :)
Le 12/06/2019 à 11h28
Ben, on en fait tout un plat car c’est la nouvelle marotte marketing des constructeurs de cartes graphiques. Mais on en parlait déjà y’a plus de 15 ans car c’est pas nouveau en vrai…
Non, on en est pas si loin. L’article indique justement qu’on le fait mais les IPS sont encore faiblardes.
Il faudra pas longtemps pour obtenir de très bons résultats avec du matos moyenne gamme.
Pour le photoréalisme, on progresse toujours et ça risque d’être encore long effectivement mais il faut bien commencer qqpart. Par contre, est-ce que les couts de production des futurs jeux photoréalistes resteront dans des limites suffisantes pour être accessibles ?
Le 12/06/2019 à 11h53
C’est oublié tout le changement que cela provoque sur le pipeline de production d’un jeu, au niveau conception de niveau et aspect graphique.
Là où avec la rasterisation tu as besoin de x lumière pour une pièce et des shaders pour simuler certains effets d’éclairage, avec le raytracing tu places une lumière et demande le bon nombre de rebond et ton résultat sera dans quasi 100% des cas bien supérieur en qualité, tout en étant beaucoup plus simple à mettre en place. De plus les environnements peuvent être entièrement dynamique (destruction notamment) sans que cela impact toute la chaine.
Le 12/06/2019 à 11h54
Selon moi je pense qu’aujourd’hui, l’augmentation de polygone devient trop complexe : difficile à produire, difficile à calculer, pour un inpact visuel faible. Du coup, la guerre pour te vendre du matos passe par les effets secondaires.
Le raytracing est ce truc qui existe depuis des années, que l’on sait assez bien maîtriser et qui permet à NVidia de te vendre des nouvelles cartes avec des cœurs dédiés.
Après, le RT apporte un effet visuel certain, mais je n’ai pas encore vu une véritable exploitation aussi bien artistique que d’elements de gameplay de celui-ci.
Le 12/06/2019 à 12h11
Quel hasard, du FUD juste après les annonces d’AMD.
Le 12/06/2019 à 12h16
AMD n’est pas présent sur le RT et c’est un papier de recherche, on a vu pire pour contrer l’annonce d’un GPU. Surtout que NV n’a pas forcément besoin d’appuyer sur ce genre de bouton pour répondre à Navi.
Le 12/06/2019 à 14h10
Et pourquoi parlez-vous de polygones par rapport au RT?
Y a pas de rapport.
Le 12/06/2019 à 14h14
Je ne nie pas les avancées en terme de rendu, mais côté pipeline on peut déjà faire cela avec du PBS et de l’AO.
Un autre gain du Ray Tracing, c’est qu’on n’est pas obligé de calculer une illumination globale, très couteuse en temps de rendu et qui dépend en plus de la projection. Avec du Ray Tracing, un casque de VR pourrait s’occuper de la projection, ce qui serait un gain énorme en terme de performance.
Le 12/06/2019 à 14h40
Si, il dit que pousser toujours plus de polygones devient difficile techniquement pour un avantage compétitif de plus en plus faible. Donc les constructeurs de cartes ont trouvé une nouvelle piste d’innovation (et de marketing) avec le Ray Tracing.
Spa faux…
Le 12/06/2019 à 15h44
Ben, pour la rasterisation, c’est déjà du hack de tous les bouts.
Le 12/06/2019 à 16h44
C’est clair !
Le 13/06/2019 à 15h19
Le truc, c’est que c’est les effets de lumière qui rendent une scène réaliste (crédible), pas le nombre de polygones. Tu peux avoir une scène avec peu de polygones (une pièce vide) avec une éclairage photoréaliste.
Wikipedia