NVIDIA mise sur Call of Duty: Modern Warfare pour vanter les mérites de ses GeForce RTX

Et inversement

NVIDIA mise sur Call of Duty: Modern Warfare pour vanter les mérites de ses GeForce RTX

NVIDIA mise sur Call of Duty: Modern Warfare pour vanter les mérites de ses GeForce RTX

Alors que ce sont surtout des annonces de GeForce GTX qui sont attendues pour cette fin d'année, NVIDIA continue de déployer RTX chez ses partenaires. Et la société espère bien capitaliser sur la sortie du dernier Call of Duty pour vanter les mérites de ses technologies, dont le ray tracing.

Cela fait maintenant un an que NVIDIA a mis sur le marché ses GeForce RTX, travaillant sur DirectX Raytracing d'arrache-pied avec Microsoft mais aussi les développeurs. Le constructeur a misé fort sur cette solution, en faisant l'un de ses angles d'attaque face à AMD qui ne propose toujours pas le moindre pilote pour cette API. 

Mais tout ne s'est pas passé comme prévu. Outre le lancement un peu bancal des RTX, rattrapé depuis par l'arrivée de la gamme Super, le nombre de titres exploitant le ray tracing est resté assez faible les premiers mois, les studios partenaires multipliant les retards. Il en était d'ailleurs de même pour la solution d'« AA par l'AI » : DLSS.

Désormais, les choses vont un peu mieux. La qualité des rendus et les performances s'améliorent, la maîtrise de ces technologies aussi. Mais NVIDIA le sait, pour vendre des cartes à plusieurs centaines d'euros, il ne peut pas miser que sur la « hype » autour des studios Lightspeed dévoilés au Computex en juin dernier, et la refonte de Quake II / Minecraft.

Il lui faut aussi du bon vieil AAA, du FPS qui tâche et qui se vend en masse. C'est là que Call of Duty : Modern Warfare entre en jeu. Lancé demain, il a déjà droit à son pilote dédié, son bundle et à ses multiplies billets de blog. Il faut dire qu'il intègre de nombreuses technologies maison : Ansel, Highlights ou encore l'adaptive shading.

Mais surtout : le ray tracing. Espérons maintenant pour NVIDIA que cela suffise à séduire les joueurs. Car la concurrence approche. On sait déjà que les prochaines Xbox et PlayStation proposeront elles aussi du ray tracing à travers leur puce AMD, le constructeur devant sans doute se préparer pour la seconde génération de Navi.

D'ici là, le père des GeForce espère prendre une avance suffisante et enfoncer le clou avec la prochaine révision de son architecture (Ampere ?), dont on espère entendre parler dès l'année prochaine.

Commentaires (8)


Oulalala le RTX c’est pas ce truc qui semble inutile mais mis en avant pour vendre des carte vraiment trop cher ?



tarlak a dit:


Oulalala le RTX c’est pas ce truc qui semble inutile mais mis en avant pour vendre des carte vraiment trop cher ?




Si, et qui réduisent par 3 les images/s ! Donc bah dans un FPS les joueurs vont l’activer 5 min, histoire de voir à quoi ça ressemble et s’empresser de le désactiver pour gagner quelques images/s ! :mdr:



Jossy a dit:


Si, et qui réduisent par 3 les images/s ! Donc bah dans un FPS les joueurs vont l’activer 5 min, histoire de voir à quoi ça ressemble et s’empresser de le désactiver pour gagner quelques images/s ! :mdr:




C’est bien ce qu’il me semblait, en même temps c’est sur que regarder le reflet de la balle dans l’oeil de celui qui va mourir c’est important


Clairement Call Of et tous les FPS multijoueurs c’est LE style de jeu ou les perfs passent avant les graphismes, surtout au niveau de la réactivité ( input lag ). J’ai jamais tester ce que ça donne avec du RTx mais j’imagine que ça doit pas être folichon vu la chute de framerate.


J’ai vraiment du mal à comprendre la stratégie de Nvidia là dessus : il est clair que les développeurs vont se concentrer sur la technologie qui sera sur console, celle d’AMD donc, qui deviendra de facto le standard.
Et ce sera sans doute encore pire si les prochaines générations d’ATI l’intègrent pour PC, ce dont je ne doute pas.


Quand on arrivera autour de 100 gigarays/sec le raytracing commencera a montrer vraiment ses atouts. Pour le moment avec 8 ou 10 GR/s on arrive pas a sampler correctement (et même à 100 ça restera du bon AI denoising, mais y’a pas de mal a ça) et/ou utiliser des lightpaths un peu complexe à 60FS en 1080 …



Sirodo a dit:


J’ai vraiment du mal à comprendre la stratégie de Nvidia là dessus : il est clair que les développeurs vont se concentrer sur la technologie qui sera sur console, celle d’AMD donc, qui deviendra de facto le standard. Et ce sera sans doute encore pire si les prochaines générations d’ATI l’intègrent pour PC, ce dont je ne doute pas.




C’est peut-être pour ça qu’AMD n’annonce rien pour l’instant sur PC ? Ils gardent toutes les cartes en main en sachant que lorsque les nouvelles consoles sortiront leur technologie sera très étudiée / suivie. (hypothèse de ma part)


Absolument pas convaincu par le RTX, (Toute cette puissance nécessaire pour améliorer de vagues textures de fond ou tu t’arrête même pas d’habitude pour regarder in game, et autres trucs parfois à peine distinguable à l’oeil nu!), c’est comme maintenant prendre GRID pour justifier cette débauche de Cores dans les derniers processeurs ce qui semble être devenu maintenant la nouvelle course à l’armement et qui sont de toutes façons inexploités ou sous-exploités la plupart du temps, à part quelques applications spécifiques …


Fermer