ASUS PG259QNR : qu’apporte un écran à 360 Hz avec analyseur de latence intégrée ?

Promis, c'est plus fluide !

ASUS PG259QNR : qu'apporte un écran à 360 Hz avec analyseur de latence intégrée ?

Le 20 octobre 2020 à 13h30

Commentaires (33)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Dans beaucoup de sport on fabrique des équipements spécifiques pour les professionnels, et la R&D sur ces produits finit parfois par arriver sur les modèles de série.



Je vois ces écrans comme ça, du matériel de pro qui ne justifient pas le surcoût pour 99,9999% des joueurs.
Mais comme les pro gramers et surtout les streamers, ils vont assurer une promo de fou et ça va forcément convertir certains joueurs.

votre avatar

Mais cela peut aider à l’émergence d’un discours cohérent et technique que la question du jeu à hautes fréquences et de la latence, alors que ces sujets sont trop souvent mis de côté.


Bah euh. Faudrait déjà prouver que ça sert à quelque chose cette course à la fréquence et à la latence. Même pour des pro !




Il est ainsi courant que dans de tels jeux on dépasse les 200 ou 300 ips en 1080p avec une carte graphique haut de gamme. Un tel écran permet d’en profiter au mieux.


Aaaaaah.
Donc au lieu de garder ma GTX 1080 et mes 144Hz je vais me prendre une écran 360Hz ainsi qu’une RTX 3080 tout ça pour avoir 360 im/s. Bon, ça sert à rien mais au moins j’ai la plus grosse. :-)

votre avatar

Ce que je dis dans le premier passage, c’est que la sortie de ce genre de produits, qu’on apprécie ou pas, qu’on soit client ou pas, ça permet de se focaliser sur les questions de fréquence/latence. Qu’on met souvent de côté (à tort, après tu peux penser qu’un 60 Hz en mode osef de la latence suffit hein, ça ne me pose aucun souci, chacun est libre de ses opinions sur le sujet).



Pour le reste, je ne dis pas que tu dois mettre à jour ton PC. Si ton PC te convient, tout va bien. Si quelqu’un veut plus de perf à 144, 240, 360 Hz, libre à lui. De mon point de vue, et comme je le dis dans l’article. Le seul conseil qui me semble bon à donner c’est d’en finir avec le 60 Hz si possible parce que ça apporte un réel confort de passer à plus (en bureautique ou en jeu).



Après le niveau de fréquence c’est comme les IPS et la puissance des GPU : il y a une offre diverse, pour des besoins divers.

votre avatar

Merci pour cette présentation et ce test :)



Je suis surpris d’une si forte réduction sur Fortnite, moi qui le classait (arbitrairement) dans les jeu “très peu gourmands”.
Par curiosité, quels autres jeux ont été testés ?

votre avatar

Sur Fortnite c’est le plus simple à mettre en avant, parce que tu peux vite monter en “lourdeur” et donc être GPU bound, et c’est là que les écarts sont les plus grands. On peut faire pire d’ailleurs, mais je reviendrais plus en détails sur les perfs de Reflex dans un papier dédié (et sur différents GPU, Là c’était surtout histoire de présenter les grandes lignes :chinois: Pour les tests aussi sur CoD (Valorant peu de gains avec une RTX 3080), je finalise quelques relevés et je mettrai un graphique un peu plus propre :chinois:

votre avatar

Je ne pense pas qu’un joueur pro va vraiment chercher ce genre de matos.



Tout d’abord, la première chose qu’un pro fait, c’est de mettre tout au minimum pour 2 raisons :




  • avoir la fréquence d’affichage au max

  • supprimer les détails parasitant l’information. Il ne sont pas là pour admirer la beauté des paysages ou apprécier à quel point le tonneau rouge est finement modeler.



Ensuite, il ne reste plus que le matos lui même à l’origine de la latences, mais là, la latence sera déjà connu pour ce matos : plus la peine de mesurer.



Enfin, les pros tiennent compte s’il sont à l’aise ou pas. C’est pour ça que chaque joueur va avoir une config et un matos différents.

votre avatar

J’ai du mal à comprendre ton commentaire. Tu dis que le joueur Pro va chercher à maximiser son débit d’image, mais pas avoir l’écran pour les afficher ? Pour la latence, tu dis qu’elle est connue, mais du coup sans la mesurer concrètement tu la connait comment ? (vu que ça dépend quand même pas mal de tes réglages, du jeu, qu’une latence annoncée et celle mesurée peut être différente, etc. ?

votre avatar

Une technologie très intéressante, visant un public limité


C’est pas gentil de dire qu’ils sont limités ; c’est qu’ils sont susceptibles parfois ces e-sportifs :D

votre avatar

Autant les 360Hz, je trouve ça surtout marketing, autant la diminution de la latence, c’est quelque chose d’appréciable. Car un écran “banal” peut facilement avoir l’équivalent de 2 ou 3 images de retard. Sur certains jeux où la réactivité compte, ça devient palpable pour un joueur correct (même pas besoin d’être un pro pour le percevoir).
J’avais fait l’expérience en branchant un cathodique à côté d’un LCD, c’est flagrant.

votre avatar

:transpi:



L’intérêt surtout de Reflex c’est que ça profite à toutes les GeForce récentes et plus aux modèles entrée/milieu de gamme. C’est assez rare comme “move” pour être apprécié. Après le 360 Hz n’est pas forcément que marketing, mais ça vise un public particulier.

votre avatar

Comme dit au début de l’article, la latence réseau n’est pas négligeable.
Quelles sont les ordres de grandeur de la lantence réseau par exemple en lan (en comptant la latence du stack) vs la latence des cpu/gpu ?



En tout cas ces améliorations profiteront à moyen terme sans doute à tous. Un peu comme freesync/g-sync

votre avatar

Difficile à dire parce que ça peut dépendre de pas mal de facteurs (filaire, sans fil, organisation du réseau). Mais bon sur un réseau local tu restes en général sous la milliseconde, au pire 2 ou 3 si vraiment le réseau est chargé mais il n’y a pas de raison d’aller au-delà.



C’est surtout en fibre/cuivre que tu es plus dans la dizaine/centaine de ms selon la distance du serveur, la connexion, etc.

votre avatar

2 ou 3ms pour le réseau, auquel il faut ajouter la couche réseau du jeu, les logiciels de priorisation du réseau (qui bufferise forcément :-/ )… Bref c’est le même problème que pour la partie affichage, il faudrait voir la globalité.



Et à côté de ça on branche un console limitée à 30FPS sur un téléviseur avec du post-processing optimisé pour le cinéma :embarassed:
Honnêtement même les pubs pour les jeux console semblent ramer je me demande parfois si on a réellement les 30FPS tellement on voit les micro-saccades.

votre avatar

Je trouve ça vraiment ridicule. On est déjà capable de faire des pipelines de rendus sous les 12 ms avec des écrans 90Hz (en VR notamment). Faire transpirer du Watt à nos GPU pour en afficher plus c’est gâcher de l’énergie, purement et simplement.

votre avatar

Oui surtout dans les multi-joueurs où les A/R incessant d’infos ajoutent pas mal de complexité à l’ensemble.

votre avatar

Je retroune la question : à quoi bon afficher une stat lorsque de toute façon tu ne peux plus rien régler pour l’améliorer ?



Comme j’ai dit, la première chose qu’un joueur pro va faire dans les réglages, c’est tout mettre au minimum, il y a peu de chance qu’ils puissent faire beaucoup de chose de plus au niveau des réglages du jeu.



Du coup, les seuls éléments qui reste à modifier, c’est son matos. Mais comme tu l’a dis dans l’article, ce genre d’écran va permettre de faire des bench de latence. Mais une fois la mesure réalisé, on peut supposer que la latence du matos reste la même, on ne peut pas vraiment agir dessus plus que ça. Ca n’est qu’un critère de choix à l’achat du matos.



Dans les compétitions pro, de toute façon, dès qu’ils jouent sur scènes (ou même dans des structures), les joueurs n’ont pas beaucoup de marge de manœuvre, l’UC, l’écran, les casques, le système… tout ça est fournis.

votre avatar

Parce que dire ça c’est penser que te coller CPU bound c’est réduire ta latence au max. Alors que ce n’est pas aussi simple. Tu maximises ton débit d’images mais tu ne réduis pas forcément ta latence au max. D’où les options dans les pilotes, Reflex. Sans parler de celle des compos que tu ne connais pas sans la mesurer.

votre avatar

Hâte de lire la suite alors :chinois: :smile:

votre avatar

Jusqu’à preuve du contraire ça sert à rien sinon de permettre aux constructeurs de vendre du matériel.



En attendant tu fais passe-plat du marketing nvidia & co : youtube.com YouTube

votre avatar

Cela va être utile pour les journalistes pro qui testent du matériel. Cool pour eux et pour nous si on cherche à gagner 1 micro-seconde sur un clic de souris.



Mais les joueurs pro ont toujours essayé de gagner de la latence en :




  • passant la souris à 1000Hz en usb

  • tout mettre au minimum ingame

  • etc



En sachant que le vrai bottleneck c’est le réseau et ça sauf miracle cela écrasera pendant encore longtemps les “améliorations” des outils type Reflex.

votre avatar

Hugues1337 a dit:


Mais les joueurs pro ont toujours essayé de gagner de la latence […] tout mettre au minimum ingame


Si tu mets tout au minimum tu risques d’augmenter le frame rate fourni par le CPU, et donc le nombre d’images calculées en avance dans les frames buffers. Avoir plus de FPS par rapport à ce qui est affiché risque d’augmenter la latence. Je vais exagérer pour illustrer : si le CPU calcule 3000 images / secondes mais que ton système graphique n’en affiche que 60 fps, tu vas calculer 50 images de plus qu’afficher réellement : Ton clic de souris risque d’être pris en compte dans le frame buffer mais de rater un 60ème de seconde et être affiché au rafraîchissement d’écran suivant (donc augmentation de la latence d’1/60sec = 17ms)



Le principe de ce système est de baisser le frame buffer au strict minimum. En gros le CPU commence à calculer l’image le plus tard possible, donc il travaille avec des données les plus fraiches possibles (ex: récent clic de souris)



Après on est en phase que c’est probablement assez anecdotique pour la majorité des gens, par contre pouvoir vérifier & ajuster par jeu est utile, mettre tout au minimum n’est pas le réglage optimum pour baisser la latence.

votre avatar

Oui, c’est tout à fait mon genre ;) Après tu es libre de penser que ni la hausse de la fréquence ni la réduction de la latence sont utiles tout comme les efforts en la matière (où qu’ils se situent dans la chaîne de rendu). Mais je suis plutôt du genre à penser que rien n’est jamais si absolu.




fofo9012 a dit:


Par contre pouvoir vérifier & ajuster par jeu est utile, mettre tout au minimum n’est pas le réglage optimum pour baisser la latence.


Clairement, même si comme dit dans l’article, une intégration de ce type vise un public limité. Ce sera d’ailleurs intéressant de voir si ça se généralise/démocratise avec le temps (et le discours d’AMD sur ces sujets la semaine prochaine, vu qu’ils ont aussi mis en place des optimisations de latence dans leurs pilotes).

votre avatar

Je n’ai évidemment pas tout expliqué. Par exemple le premier truc à faire c’est dégager le buffer justement. Reflex c’est surtout pour jouer avec une plus petite latence si tu fous tout en high. Si t’es déjà à 144 im/s stable sur un écran à 144Hz il va pas miraculeusement changer ta vie.

votre avatar

Inversement, les très bons écrans LCD ont de nos jours moins de latence qu’un CRT (8.3ms sur du 60 Hz).

votre avatar

Il est préférable de bosser sur le netcode (et qu’un génie fasse un netcode rollback sur les fps, t’as pas envie Carmak ? https://www.youtube.com/watch?v=0NLe4IpdS1w ). Sauf si nvidia trouve un moyen d’optimiser le netcode avec un gpu ça les intéresse pas vraiment. Mais te faire croire qu’avoir un frame en 2.8ms c’est méga important et que tu dois acheter un écran à 1000€ + un gpu (nvidia évidemment) RTX 3080.

votre avatar

Grace à



Je vois un peu mieux (je ne comprenais pas à quoi correspondait cette queue).



Mais là encore, ce n’est pas justement le boulot de l’outil Reflex ? Et je n’ai pas l’impression que cette outils ait besoin du “Reflex Latency Analyser” de l’écran et de ses mesures pour faire son boulot, non ?

votre avatar

Reflex ne nécessite ni écran à 1000 euros ni RTX 3080. Comme dit plus haut, c’est même plus utile sur des cartes milieu de gamme ou le gaain en latence sera plus net puisque l’on est plus rapidement dans des cas GPU bound.

votre avatar

Hugues1337 a dit:


Je n’ai évidemment pas tout expliqué. Par exemple le premier truc à faire c’est dégager le buffer justement. Reflex c’est surtout pour jouer avec une plus petite latence si tu fous tout en high. Si t’es déjà à 144 im/s stable sur un écran à 144Hz il va pas miraculeusement changer ta vie.


C’est justement le role de reflex de pouvoir modifier le comportement du buffer qui est géré par le moteur graphique, il n’y a jamais de réglage taille du buffer dans les jeux.



A 144fps parfaitement stable, il sera aussi utile de baisser le buffer pour ne pas jouer avec quelques images de décalage (correspondant à la taille de ce buffer).
Si tu dégageais totalement le buffer dans tous les cas tu auras probablement des saccades : sans buffer si l’image suivante n’est pas prête c’est la précédente qui reste affichée. Avec un buffer d’images d’avance tu auras un état intermédiaire un peu plus à jour que celle affichée depuis un cycle complet de rafraichissement.



Bref c’est loin d’être binaire, ce réglage est un délicat équilibre entre fluidité et latence.

votre avatar

De quel buffer parles-tu ?
Le buffer dont je parle c’est le double ou triple buffer lié au vsync. Vsync (et buffer) à désactiver en prio’ pour baisser la latence.

votre avatar

Le GPU bound survient car le joueur souhaite jouer en ligne tout en gardant une qualité d’affichage correct. Chercher une latence courte, et des graphismes highend, c’est antinomique et donc la cible est bien le casual-gaming à qui on souhaite vendre du matos d’une façon ou d’une autre.



Ce n’est pas un souci pour un pro sauf si il est aussi un homme sandwich qui doit vendre du GPU nvidia.



En attendant j’attends toujours un test des écrans hautes fréquences et de son intérêt réel, qui ne soit pas sponsorisé par nvidia.

votre avatar

J’ai arrêté la vidéo au moment des souris spéciales à brancher sur l’écran, ce qui permettrait d’analyser du coup la latence sans en ajouter. J’ai rarement vu du passthrough “sans latence”, désolé de douter. Même si c’est sûrement très faible, je n’apprécie que peu le discours marketing mensonger.



Sans compter que cela semble requiérir Geforce Experience au final. On a déjà du mal à contrer la télémétrie maintenant pleinement intégré au driver donc… non, pas la peine d’en rajouter.



Quand à inciter à “enfin” sauter le cap du 60 Hz… Encore faut-il avoir eu l’occasion de le tester. Ça n’a jamais été le cas pour ma part, je ne connais personne avec ce genre d’équipement. Je ne vois donc d’intêret que pour les FPS et clairement PAS pour de la bureautique (sauf à aimer les animations dans Word ou les transitions entre fenêtres ?). Donc cramer des centaines d’euros pour remplacer 2 ou 3 écrans pour un doublage de fréquence qui supposera aussi de changer la carte graphique pour que ça puisse supporter le double du travail précédent (car je fonctionne toujours en Vsync pour ne pas stresser l’équipement) n’a rien de pertinent.



Ça ressemble plutôt à du discours marketing comme on en a eu pour la supposé révolution de la TV 3D ou de la VR. Tout est bon pour nous faire changer d’équipement.

votre avatar

Je comprends qu’on ne se comprends pas, mais libre à toi. PS : ce papier n’est pas sponsorisé, ceux qui le sont ne sont pas rédigés par la rédaction et sont indiqués comme tels.




TheKillerOfComputer a dit:


J’ai arrêté la vidéo au moment des souris spéciales à brancher sur l’écran, ce qui permettrait d’analyser du coup la latence sans en ajouter. J’ai rarement vu du passthrough “sans latence”, désolé de douter. Même si c’est sûrement très faible, je n’apprécie que peu le discours marketing mensonger.


Tout a forcément une latence, même le câble au bout de la souris, celui qui relie à l’écran, mais il faut raison garder ;) Le besoin d’une souris spécifique pour disposer d’un signal à récupérer reste une limite de l’exercice, même si je trouve que NVIDIA a bien fait de trouver une raison de le contourner à la marge pour maintenir un calcul et un affichage de résultat.




Sans compter que cela semble requiérir Geforce Experience au final. On a déjà du mal à contrer la télémétrie maintenant pleinement intégré au driver donc… non, pas la peine d’en rajouter.


Il y a deux choses : la mesure de latence intégrée à l’écran ne nécessite pas GFE. Reflex non plus. Ce qui nécessite GFE c’est l’overlay, comme expliqué dans le papier dédié. Je comprends qu’on y soit opposé, au quel cas, une telle fonctionnalité n’aura effectivement pas d’intérêt pour les utilisateurs concernés.




Quand à inciter à “enfin” sauter le cap du 60 Hz… Encore faut-il avoir eu l’occasion de le tester. Ça n’a jamais été le cas pour ma part, je ne connais personne avec ce genre d’équipement. Je ne vois donc d’intêret que pour les FPS et clairement PAS pour de la bureautique

Ça ressemble plutôt à du discours marketing comme on en a eu pour la supposé révolution de la TV 3D ou de la VR. Tout est bon pour nous faire changer d’équipement.


Je maintiens : le fait de garder la limite de 60 Hz comme référent n’a plus vraiment de sens. On sait produire plus rapide facilement, ce chiffre n’a aucune raison d’être utilisé comme valeur de base plus qu’un autre.



Quand on renouvelle son écran, mon conseil est le plus possible de choisir un écran capable d’aller au-delà. Comme c’est aussi d’éviter un TN au profit d’un IPS ou autre, même si c’est un peu plus cher. Je comprends que le prix soit une contrainte, un critère. Cela ne doit pas être le seul, c’est un juste milieu à trouver.



Comme dit ici ou ailleurs, je ne peux que t’inviter à tester des écrans à plus de 60 Hz pour te faire un avis sur le sujet. Crier au complot marketing est aisé, le faire en connaissance de cause est préférable. Et personne ne te force à renouveler : je précise juste un critère à prendre en compte quand tu le feras.



Libre à toi de rester à 60 Hz la prochaine fois si tu préfères, ça me va aussi ;) Le principe d’un conseil c’est qu’on peu le suivre ou non.




Donc cramer des centaines d’euros pour remplacer 2 ou 3 écrans pour un doublage de fréquence qui supposera aussi de changer la carte graphique pour que ça puisse supporter le double du travail précédent (car je fonctionne toujours en Vsync pour ne pas stresser l’équipement) n’a rien de pertinent.


Il n’est pas nécessaire de “cramer des centaines d’euros” ou de changer de carte graphique pour profiter de plus de 60 Hz. Forcément, si tu as plusieurs écrans, ce sera plus coûteux au renouvellement, mais le surcoût n’est pas toujours si important (sauf à prendre des 22” TN en promo comme base de calcul).



C’est juste plus coûteux d’avoir un écran qui a une large plage d’adaptation de fréquences qui peut être utile en jeu (pour avoir constamment un alignement entre GPU et écran à ce sujet). FreeSync a pas mal contribué à se focaliser sur le chiffre maximal sans regarder le minimal (qui ne va pas jusqu’à 0 les concernant en général) avec un résultat parfois décevant “mais c’est pas cher”.



Mais il y a de plus en plus de bons modèles disponibles à des tarifs raisonnables, même avec de bonnes dalles et définitions, surtout avec la généralisation du VRR et du DisplayPort/HDMI 2.1 qui facilitent les choses. Il faut être vigilant, mais trouver de bons produits accessibles n’est pas impossible.



Par exemple, ici tu as un modèle avec dalle VA, en 1080p, qui gère de 48 à 144 Hz (FreeSync Premium). je doute qu’on soit dans une tarification excessive comme tu le suggères. On pourra sans doute trouver meilleur écran en dépensant un peu plus, mais ça montre que ce n’est pas réservée à une élite.

votre avatar

J’avais mal saisi pour le GFE donc je pensais qu’il était requis :chinois:



Pour l’écran, à part en acheter un je ne peux pas tester, et clairement mes priorités sont autres. Cependant mon 27” devrait bientôt s’éteindre à jamais. Je tenterai de le réparer si ça arrive mais j’envisagerai un achat si le coût ne se justifie pas (et ça risque, car le Royaume-Uni nous quitte or pour avoir des capaciteurs à un prix inférieur à leurs frais de transport, il n’y avait pas mieux).



Ce AOC est vraiment pas mal, mais il lui manque une fixation Vesa et une capacité de mode portrait. Aussi il ne semble pas démontable, bien que je cherche encore des informations là-dessus.

ASUS PG259QNR : qu’apporte un écran à 360 Hz avec analyseur de latence intégrée ?

  • La latence, c'est quoi, pourquoi s'en préoccuper ?

  • NVIDIA Reflex : la réduction de la latence au-delà du pilote

  • RLA : des écrans et souris pour mesurer la latence

  • ROG Swift PG259QNR : un premier modèle RLA par Asus

  • L'afficheur de performances de GeForce Experience mis à jour

  • Une technologie très intéressante, visant un public limité

Fermer