AMD Fidelity FX Super Resolution pour le 22 juin : les GeForce compatibles, peu de jeux concernés

AMD Fidelity FX Super Resolution pour le 22 juin : les GeForce compatibles, peu de jeux concernés

Les détails ? Plus tard

Avatar de l'auteur

David Legrand

Publié dansHardware

01/06/2021
11
AMD Fidelity FX Super Resolution pour le 22 juin : les GeForce compatibles, peu de jeux concernés

S'il y a bien une technologie qui était attendue chez AMD ces derniers mois, c'est son Fidelity FX Super Resolution. Le Computex a été l'occasion pour la société de donner de nouveaux détails à son sujet, mais il faudra encore attendre pour réellement savoir de quoi il en retourne.

Avec ses GeForce RTX de série 20 (Turing), NVIDIA a mis en place une solution technique intéressante : DLSS, ou Deep Learning Super Sampling. L'idée était de calculer l'image dans une définition inférieure à celle demandée, pour maximiser les performances, puis d'effectuer une mise à l'échelle via un modèle généré par une IA et les Tensor Cores. 

La première version était poussive et limitée, mais la 2.x est bien plus convaincante, intégrée à de nombreux jeux et des moteurs comme l'Unreal Engine. Elle est néanmoins limitée aux seules GeForce RTX. Depuis, AMD a toujours promis une solution équivalente, connue depuis peu sous le nom de Fidelity FX Super Resolution (FSR).

Notre dossier sur AMD au Computex 2021 :

FSR sera disponible le 22 juin, sur GeForce et Radeon

La société annonce aujourd'hui qu'elle sera accessible dès le 22 juin prochain. Elle fonctionnera aussi bien sur les Radeon que les GeForce, sans se limiter aux dernières générations (dès RX 470/Vega chez AMD), ce qui est plutôt une bonne chose. Mais la société ne dit pas comment cela fonctionne, passant rapidement sur le niveau de qualité obtenu.

Quatre niveaux de qualité/performances seront proposés. Dans Godfall sur une RX 6800 XT, cela permettra de passer en 4K avec ray tracing de 49 ips à 79 ips, 99 ips 124 ips ou 150 ips. Mais avec quel niveau de qualité ? La société ne s'est pour le moment pas vraiment étendue sur le sujet. Ce sera néanmoins le facteur de succès, ou d'échec.

Une compatibilité large, mais avec peu de jeux

AMD promet une compatibilité avec « plus de 100 » CPU et GPU, une dizaine de studios et moteurs de jeux en 2021, mais selon nos informations, seuls quelques jeux seront concernés au lancement. La société nous promet plus de détails d'ici le 22 juin. On devrait alors en savoir plus sur le fonctionnement concret de cette solution.

Vous pouvez proposer vos jeux à l'adresse suivante : amd.com/fsr. Pour rappel, l'Unreal Engine 5.0 intègrera une solution similaire, sur laquelle AMD dit avoir travaillé pour une optimisation à ses Radeon.

  • AMD FidelityFX Super Resolution FSR
  • AMD FidelityFX Super Resolution FSR
  • AMD FidelityFX Super Resolution FSR
  • AMD FidelityFX Super Resolution FSR
11
Avatar de l'auteur

Écrit par David Legrand

Tiens, en parlant de ça :

#Flock a sa propre vision de l’inclusion

Retour à l’envoyeur

13:39 Flock 15
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

On est déjà à la V2 de Next ?

11:55 26
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Me voilà à poil sur Internet

17:18 Next 16

Sommaire de l'article

Introduction

FSR sera disponible le 22 juin, sur GeForce et Radeon

Une compatibilité large, mais avec peu de jeux

#Flock a sa propre vision de l’inclusion

Flock 15
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #10 : nous contacter et résumé de la semaine

26
Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 16
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 16
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 10
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 4

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 15

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 13
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 34
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 52
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 10

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 12
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardWeb 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IASociété 62

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA 38
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitWeb 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société 7
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitWeb 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

Le poing Dev – round 6

Next 151

Produits dangereux sur le web : nouvelles obligations en vue pour les marketplaces

Droit 9
consommation de l'ia

Usages et frugalité : quelle place pour les IA dans la société de demain ?

IA 12

La NASA établit une liaison laser à 16 millions de km, les essais continuent

Science 17
Concept de CPU

Semi-conducteurs : un important accord entre l’Europe et l’Inde

Hard 7

#LeBrief : PS5 Slim en France, Valeo porte plainte contre NVIDIA, pertes publicitaires X/Twitter

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (11)


tazvld Abonné
Il y a 3 ans

Je reste curieux de savoir comment fonctionne leur solution. Autant DLSS, c’est “simple” car ça utilise du réseau de neurone, donc ça tape principalement dans les TPU (tensor core) des CG RTX (et derrière ça laisse donc les Cuda Core à la 3D). Cependant, les Radeon n’ont pas de TPU, donc quelque soit la façon dont ça fonctionne, il faut taper dans la puissance de calcul qui pourrait servir à la 3D.



Les réseaux de neurone risquent en effet d’être beaucoup trop consommateur en puissance pour avoir un gain aussi significatif dans ce cas là. De plus ce ne serait pas à l’avantage des Radeon lorsqu’en face, les RTX ont une partie matérielle dédié à ce genre de calcul (donc des gain de performance bien plus important si bien mise en oeuvre). Je pencherai donc sur un algo plus classique pour faire de l’upscaling.


David_L Abonné
Il y a 3 ans

Oui ça passera forcément par les shaders, mais à voir sur quelle implémentation. C’est surement ce qui explique les quatre niveau de qualité, pour reporter le choix sur l’utilisateur. Mais si au final on a les perfs de DLSS sans la qualité ou la qualité de DLSS sans le gain de perf… ça se verra vite (même sur quelques jeux)


Pat_Hator
Il y a 3 ans

Ce n’est pas la cible de l’article, mais j’aurais été curieux de savoir si cette techno sera utilisable sur les PS5/XsX…


David_L Abonné
Il y a 3 ans

C’est fait pour et annonce tel que. C’est d’ailleurs surtout là que ce sera intéressant, comme ça on pourra dire que les consoles peuvent faire de la 4K60 sans (enfin, trop) mentir :D Après il faudra voir quels seront les jeux supportés, mais il y a de grande chances que ce soit natif sur les prochains portages. Sans parler ensuite des solutions qui seront natives au moteurs comme l’UE 5.0


tazvld Abonné
Il y a 3 ans

C’est un peu le sous entendu qui va avec. En effet, (attention, c’est assez simplifié) dans le cas des réseau de neurone convolutif (ce qui est très certainement le DLSS), l’image est analysée localement pour déterminer la nature des objets afin de faire un upscaling plus adapté, un peu comme si on nous demandait de peindre une photo sur une grande toile, on va interpréter l’image, les objets qui s’y trouvent afin de les redessiner en plus grand.



A coté, un algo type shader “classique”, je doute qu’il y ai beaucoup d’interprétation de l’image. J’ai du mal a voir comment ça peut tenir face au DLSS.



Techniquement, ça semble être que purement “logiciel” et ne pas faire appel à du matériel spécifique ou des capacité exclusive récent (vu que ça tourne sur une GTX1060 qui a déjà 5ans au compteur). Donc, ça devrait être utilisable sur les consoles.


Pat_Hator
Il y a 3 ans

Merci pour vos réponses.



Si c’est efficace, ou même que cela apporte un boost de perfs non négligeable (sans être à la hauteur du DLSS 2), ce sera toujours bon à prendre…


tazvld Abonné
Il y a 3 ans

Je pense que ça fera toujours un bon taf ça donnera très certainement un image bien meilleur qu’un upscaling par interpolation (celui que tu as quand tu demandes à ta télé de sortir une image 4k avec une source HD ou FHD).



La 3D dans les jeu vidéo aujourd’hui, c’est beaucoup de petite astuce permettant de produire une image qui fait illusion en un minimum de temps (pour faire du temps direct). C’est déjà plein d’effet qui en soit ne sont en théorie pas terrible, mais dans la pratique, passe souvent assez bien tant que l’on ne sais pas où regardé. Par exemple, sans RT, les reflets sont généralement des technique très approximatives (un reflet dans l’eau, c’est souvent l’inversion intelligente de l’image déjà calculé et/ou d’un “ciel”-> ark survival n’aime pas les pioches) et je ne compte pas le nombre d’effet qui ne sont que des images 2D détouré et incrusté dans l’image (faire une pause dans un replay d’Overwatch et voir toute les effet “tourner” vers la caméra et je ne serai pas étonné que ce soit détouré grace au z-buffer).



Pour cette upscaling, malheureusement, les personnes savent où et comment regarder pour voir ses “problèmes”, donc ça va certainement gueuler que c’est moche. Mais dans la réalité, déjà, c’est un gain par rapport à rien (de toute façon, le matos n’est pas capable d’avoir les mêmes performances en résolution native) et il y a de grande chance que la plupart des joueurs, si on ne leur dit pas et qu’il ne savent pas, n’y verront que du feu.


horrus
Il y a 3 ans

bonjour,



je sais pas ce que va donner leur solution logiciel, mais pour une solution matérielle je pense qu il faudra attendre rdna 3 et ses chiplets, si j ai bien compris la technologie un cpu ou gpu chiplet c est un gpu composés de plusieurs chiplets ( “ et un chiplet = 1 core ” ). Si ( les chiplets/cores ) ils peuvent les programmés pour qu ils fonctionnent comme les “ Tensor core ” ils auront là , la solution matérielle.



A propos des “ Tensor core” est-ce que les gpu Nividia actuels sont-ils a “ moitié ” chiplets ? ( parce que a force d entendre parler de Tensor core j imagine une partie du gpu (14 voir 13 du die est composet de chiplets = tensor core)) ???


David_L Abonné
Il y a 3 ans

J’ai rien compris de ton histoire de conversion (un tensor core c’est une unité spécialisée dans le calcul matriciel, il n’y a pas de “conversion” possible). Il n’y a rien de chiplet dans les GPU NVIDIA, ils sont monolithiques, c’est une même puce, avec différents types d’unités.


horrus
Il y a 3 ans

ok , et je crois que je comprend mieux comment fonctionne les chiplets donc les Tensor core sont des unités dédiés a certaines opérations ( notamment les IA )


tazvld Abonné
Il y a 3 ans

J’ai l’impression que tu confond chiplet et circuit logique programmable (genre FPGA). Un chiplet, ce n’est rien d’autre qu’une puce que l’on soude par dessus une autre puce.



Comme David l’a expliqué, une puce NVidia, c’est gravé d’un seul tenant, le terme “monolithiques” prend tous son sens. Cependant, dans les puce, tu peux répéter plusieurs fois une même “unité”. Par exemple, dans une RTX3080 il y a 68 répétitions d’un bloc qu’ils appellent le Streaming Multiprocessors (SM)



Dans ces SM, tu trouves 4 unité dédié aux calculs génériques sur les chiffre à virgule (FP32 : floating point 32bit), 4 unité capable de faire des calculs sur des entier ou, nouveauté d’Ampère, sur des chiffre à virgule (FP32+int32) 4 unités dédiées uniquement pour faire un seul type d’opération (D = A * B + C où A, B, C et D sont des matrice), 1 unité pour un type d’opération spécifique au calcul du raytracing (en gros ça va retourner ce que touche un rayon) et enfin plein d’autre trucs.



DLSS n’est pas vraiment une solution “matériel” non plus. Ca utilise le Deep Learning (ou plutôt les réseaux de neurones, car celui fournis est déjà appris). Or cette famille d’algo utilise massivement l’opération D = A * B + C. Il est possible de faire ce genre de calculs avec les unité FP32 (ou int32), mais les Tensor Core le réalise d’une manière particulièrement efficace (il fait matériellement ce calculs sur une portion complète des matrices là où la solution classique passe par un calcul “case par case”). Normalement, il serait très certainement possible de faire tourner DLSS sur une Geforce Serie 10 (et peut-être même des cartes plus ancienne), cependant ça risque d’avoir l’effet inverse tellement le calculs peut détourner beaucoup de puissance de calcul (principalement les FP32 et Int32) qui aurait pu servir à la 3D. Les Série 20 et 30 sont en effet capable de déléguer une grosse charge du calcul du DLSS (ainsi que du denoising dans le cas du raytracing) au Tensor Core, laissant les FP32 et les Int32 faire le calcul 3D de la scène