NVIDIA G-Sync : un module dans les écrans pour les satisfaire tous
Un message pour AMD ?
Le 18 octobre 2013 à 15h19
3 min
Sciences et espace
Sciences
Lors d'une conférence qui se tient actuellement à Montréal, NVIDIA a annoncé sa technologie G-Sync. Derrière ce nom se cache un module que certaines marques pourront intégrer à leurs écrans afin d'éviter des soucis de tearing, de lag ou de stuttering. Une manière d'envoyer un message à AMD ?
Ces dernières années, les différents constructeurs du marché des GPU ont cherché à lutter contre différents soucis au niveau du rendu des images. Ceux-ci prennent des noms barbares comme le lag, le stuttering ou le tearing. Dans la pratique, l'image apparaît découpée ou avec des sauts. Ces derniers temps, NVIDIA fait la guerre à AMD sur le sujet en l'accusant de ne pas se préoccuper de cette problématique afin de pouvoir afficher de bonnes moyennes dans les jeux.
Pour que l'écran et le GPU travaillent ensemble, NVIDIA propose G-Sync
L'outil FCAT a ainsi été développé et mis à la disposition de certains journalistes (voir cet article de Hardware.fr) afin de leur permettre de mettre cette problématique en avant. Car le souci est complexe entre l'activation ou non de la synchronisation verticale, la communication entre le GPU et l'écran qui dispose de sa fréquence propre, la variation des performances, etc. Au final, c'est via une solution matérielle que cela sera corrigé par le caméléon : G-Sync.
Cette technologie prend la forme d'un module que les constructeurs d'écrans pourront intégrer à leurs produits à la place de l'actuel scaler. Il aura en charge la bonne synchronisation des données issues du GPU par rapport à leur affichage, plutôt que d'obéir à une fréquence fixe. En clair : l'écran attendra désormais qu'une nouvelle image ait été calculée par le GPU pour se mettre à jour, évitant ainsi de nombreux soucis et améliorant l'expérience du joueur.
Une bonne idée, mais qu'en sera-t-il dans la pratique ?
Seuls les modèles de la génération Kepler seront compatibles, bien entendu. Certaines marques sont déjà de la partie pour le programme de partenariat : Asus, BenQ, Philips et ViewSonic. Cela devrait donc largement réduire le choix pour les joueurs qui doivent encore avoir en tête la difficulté pour trouver de bons écrans accessibles gérant le 120 Hz pour 3D Vision par exemple. Rien ne devrait néanmoins voir le jour avant 2014.
Mais une version modifiée du VG248QE sera proposée dans un premier temps, et NVIDIA indique qu'il sera possible d'acheter le module séparément pour l'intégrer à ce produit, un point sur lequel nous attendons des retours de la part d'Asus.
Espérons que cela ne sera pas trop restrictif dans la pratique, et surtout que le surcoût ne sera pas énorme, un point sur lequel NVIDIA n'a pas pu nous donner de détails pour le moment. On nous a néanmoins indiqué que le résultat était impressionnant dans la pratique. Des démonstrations sont en cours, il faudra donc attendre le retour de nos confrères ou nos propres tests pour savoir s'il faut être convaincu ou non.
NVIDIA G-Sync : un module dans les écrans pour les satisfaire tous
-
Pour que l'écran et le GPU travaillent ensemble, NVIDIA propose G-Sync
-
Une bonne idée, mais qu'en sera-t-il dans la pratique ?
Commentaires (27)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 21/10/2013 à 06h51
Le 21/10/2013 à 14h32
Le 21/10/2013 à 16h25
Le 21/10/2013 à 18h06
Le 18/10/2013 à 15h59
Un rapport avec la technologie pro existant déjà ?
http://www.nvidia.fr/object/nvidia-sync-quadro-g-sync-fr.html
Aussi chez AMD d’ailleurs.
http://www.amd.com/fr/products/workstation/graphics/s400/Pages/s400.aspx
J’aimerais bien pouvoir synchroniser plusieurs PC sur plusieurs projecteurs, le tout en relief actif à 120 Hz avec un frame-lock, et jusqu’à maintenant, seules les solutions pro le permettaient.
Le 18/10/2013 à 16h09
Le 18/10/2013 à 16h21
Le 18/10/2013 à 19h14
Le 18/10/2013 à 19h22
[ Mode mauvais esprit ]
C’est quand même une manière de “licensier” du matos généraliste, de commencer doucement à construire un écosystème qui pourrait s’avérer de moins en moins conciliant au fil du temps.
Le 18/10/2013 à 19h56
A plus de 60 images/secondes, en rater une avec l’option Vsync c’est pas visible, de coup je vois pas l’utilité du truc.
Le 18/10/2013 à 20h32
Le 18/10/2013 à 22h07
Le 19/10/2013 à 06h31
La puce en question elle est passive où elle discute avec la CG ?
Le 19/10/2013 à 07h43
Le 19/10/2013 à 13h20
Le 19/10/2013 à 16h50
Le 19/10/2013 à 16h52
Le 20/10/2013 à 00h11
Le 20/10/2013 à 08h03
Le 20/10/2013 à 19h15
Le 18/10/2013 à 15h23
Dommage de passer par une solution propriétaire, car l’idée est bonne !
Y’a pas moyen de mettre au point une norme basée sur un principe similaire, mais ouverte à tous ?
Le 18/10/2013 à 15h24
Le 18/10/2013 à 15h27
Les bugs visuels sans V-sync oui c’est courant mais avec j’ai jamais eu de soucis, ou alors trop imperceptibles pour moi " />
Le 18/10/2013 à 15h28
Le 18/10/2013 à 15h32
Le 18/10/2013 à 15h46
Et quand on changera de marque de carte graphique, on devra changer d’écran pour éviter des problèmes de compatibilités ? Tu m’étonnes que les constructeurs d’écran foncent dessus :)
Le 18/10/2013 à 15h51