Connexion
Abonnez-vous

Revue de presse : la technologie G-Sync de NVIDIA tient-elle ses promesses ?

Une évolution intéresante, mais à quel prix ?

Revue de presse : la technologie G-Sync de NVIDIA tient-elle ses promesses ?

Le 13 décembre 2013 à 10h50

Il a un peu moins de deux mois, NVIDIA dévoilait sa technologie G-Sync qui se propose de revoir complètement la manière dont un écran communique avec le GPU et affiche les images qu'il génère. Les premiers tests ont été publiés par nos confrères américains, l'occasion de savoir si les promesses seront tenues ou non.

 

NVIDIA G-Sync

 

Le 18 octobre, NVIDIA tenait une conférence de presse à Montréal où le fabricant a dévoilé plusieurs nouveautés : une GeForce GTX 780 Ti afin de contrer la Radeon R9 290X ainsi que G-Sync. Cette technologie nécessite évidemment une GeForce et prend la forme d'un module qui doit être intégré à un écran afin de le rendre compatible. De là, fini le choix entre activer ou non la synchronisation verticale, l'écran attend une nouvelle image provenant du GPU avant de se rafraîchir. Le but étant de supprimer les effets de tearing, de lag et de suttering.

 

NVIDIA vient d'autoriser la publication des premiers tests de G-Sync, c'est donc l'occasion d'en savoir plus à travers différentes analyses qui ont été réalisés sur le même écran : un VG248QE d'ASUS modifié par NVIDIA. Pour rappel, ASUS ne proposera pas de version G-Sync native de cet écran, puisque ce genre de produit n'est pas attendu avant l'année prochaine. Cette version modifiée ne sera d'ailleurs pas au catalogue de la marque, bien que NVIDIA devrait pousser son arrivée chez les revendeurs chez nous, mais surement en très petites quantités et à un tarif que l'on nous annonce déjà comme bien plus important que les 300 euros du VG248QE.

 

Il sera intéressant de voir ce que cela donne réellement une fois que les revendeurs disposeront de cette référence en stock, en espérant que l'on retrouvera des montants inférieurs une fois la nouvelle vague de produits G-Sync disponible. Bien entendu, nous vous tiendrons informés de toute nouvelle information sur ce point et le prochain CES devrait sans doute être l'occasion de nombreuses annonces.

 

En attendant, voici les tests de nos confrères (en anglais) :

Commentaires (30)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







sniperdc a écrit :



G sync apporte dans la plus part des cas un apport de fluidité et visiblement un gain de performance. 400 € pour un moniteur pc avec gsync cela me semble correct. Reste à voir plus de tests et voir si il ne faut pas attendre un gsync 2







il ne peux y avoir AUCUN gain de performance, g sync ce n’est que de la synchro d’image avec ce qui sort du GPU



regardes ici :http://www.anandtech.com/show/7582/nvidia-gsync-review



donc non pas de gain de perf, et donc c’est très très cher pour au final vraiment pas grand chose, regarde la vidéo de fin en 1440 plein écran et dis moi si tu constate très clairement une différence entre le g sync et le v sync.



leur méthode est bonne, le résultat, à mon sens, ne l’es pas tant que ça


votre avatar

Mouais, je pense pas que les gens changent leurs écran tous les ans. C’est un des dernier truc qui reste que les gens changent uniquement quand il crève dans la plupart des cas. Je pense donc que ça aura un taux de pénétration très faible.

votre avatar







Reparateur a écrit :



la techno serais ouverte ça se démocratisations



maintenant un truc fermé comme ça ça décollera pas plus que le physyx et la 3D



ce qui est con il pourrais très bien vendre leur module et simplement laissai sont utilisation ouverte il se ferais + d’argent avec l’argent récolté sur chaque écran vendue





ça me fait un peut à l’autre débilité du physyx qui est bridé tant bien même tu veut achetter une seconde carte NVIDIA pour le gérer …







Va falloir réparer l’orthographe <img data-src=" />



G-Sync n’est utile que si le GPU ne suit pas et que le taux d’images par secondes est inférieur au taux de rafraîchissement de l’écran. Donc c’est valable pour les gens qui ont des GPU moyenne gamme. Mais si on doit mettre 100€ de plus dans l’écran, autant les mettre dans le GPU ! Pas sûr que ça se vende du coup leur truc…


votre avatar







okeN a écrit :



Mouais, je pense pas que les gens changent leurs écran tous les ans. C’est un des dernier truc qui reste que les gens changent uniquement quand il crève dans la plupart des cas. Je pense donc que ça aura un taux de pénétration très faible.







En effet c’est souvent la dernière chose (même après le boitier) qu’on change, surtout quand à la base on a déjà un bon écran.



Je ne pense pas changé mon 27 Koréen S-IPS 1440P de si tôt.


votre avatar







von-block a écrit :



En effet c’est souvent la dernière chose (même après le boitier) qu’on change, surtout quand à la base on a déjà un bon écran.



Je ne pense pas changé mon 27 Koréen S-IPS 1440P de si tôt.





Un Qnix QX2710LED?


votre avatar







Edtech a écrit :



Va falloir réparer l’orthographe <img data-src=" />



G-Sync n’est utile que si le GPU ne suit pas et que le taux d’images par secondes est inférieur au taux de rafraîchissement de l’écran. Donc c’est valable pour les gens qui ont des GPU moyenne gamme. Mais si on doit mettre 100€ de plus dans l’écran, autant les mettre dans le GPU ! Pas sûr que ça se vende du coup leur truc…







disons que même si tu a une configue haut de gamme après quelques année y a toujours des jeux qui rame



et perso je préfère tourner a 50 fps que 30fps en sync



après je suis en AMD donc tant pis pour leur truc



surtout qu’il laisserais le truc ouvert (et pas que AMD à toute machine) ça se démocratiserais et le prix baisserais forcément



et surtout ils disent que leur système évite le stuttering



donc mieux que le vsync


votre avatar







Arona a écrit :



Un Qnix QX2710LED?







Presque



Un PCBANK 27” LED au coût dérisoire il y a déjà plus d’un an de 340$ CA livraison compris et frais de Douane.


votre avatar







von-block a écrit :



Presque



Un PCBANK 27” LED au coût dérisoire il y a déjà plus d’un an de 340$ CA livraison compris et frais de Douane.





Mon Qnix c’était 270€ d’achat et 57€ de livraison / frais de douane soit 330€ au total.



J’ai essayé d’OC et j’ai aucun artefact à 96Hz par contre j’en ai à 120Hz.



Mais ça reste un vrai changement le 1440p IPS.


votre avatar







Arona a écrit :



Mon Qnix c’était 270€ d’achat et 57€ de livraison / frais de douane soit 330€ au total.



J’ai essayé d’OC et j’ai aucun artefact à 96Hz par contre j’en ai à 120Hz.



Mais ça reste un vrai changement le 1440p IPS.







Juste pour savoir, c’est de bonne qualité niveau contraste/couleurs?



Pas de reverse-ghosting non plus?



Et on chope où des écrans comme ça?<img data-src=" />(j’en ai vu sur ebay mais bon si jamais ya un site spécialisé…)


votre avatar

J’avais un 22” Viewsonic TN de 2007 avant.



Je ne suis pas spécialiste en écrans donc seul mon ressenti compte.



Mais la seul chose qui me dérange un peu est la rémanence, qui est plutôt bonne cela dit mais la taille de l’écran accentue un peu l’effet en jeu, pas de reverse ghosting.



Après j’ai comparé avec des TN de bureau et des TN 120Hz sur PC portable de gamer et c’est vraiment la taille qui perturbe en fait.



Le modèle que j’ai acheté est celui-là. avec uniquement la prise DVI-DL pour pouvoir gérer la fréquence d’affichage par le GPU et sans OSD ce qui diminue la latence.



Franchement pour 330€, c’est de la bombe!

Et livraison en 3-4 jours depuis la Corée, ça fait bizarre aussi!

votre avatar







okeN a écrit :



Mouais, je pense pas que les gens changent leurs écran tous les ans. C’est un des dernier truc qui reste que les gens changent uniquement quand il crève dans la plupart des cas. Je pense donc que ça aura un taux de pénétration très faible.



je confirme pour le dernier truc changé…

j’ai toujours mon tout premier LCD (qui fonctionne parfaitement bien), que j’avais acheté 450€ (pour un 19”)…

je crois que c’était en 2005 ou 2006 <img data-src=" />


votre avatar

GSync, ça m’aurait tenté si on pouvait avoir la carte à part (je ne sais pas si tous les écrans peuvent supporter le changement de fréquence à la volée sans “clignoter”) mais en l’état, bof. Puisque quelqu’un a parlé de Mantle, ça me tente plus mais Physx et Shadowplay me tentent aussi chez nVidia, font chier à séparer les trucs comme ça…









spidy a écrit :



en mettant la synchro verticale sur “adaptatif” (dans les paramètres 3D du pilote nvidia) ça remplace pas G-Sync ? ou alors j’ai pas compris l’interet de G-Sync ?







C’est la GSync du pauvre (vraiment grosso merdo, ce n’est pas vraiment la même chose) mais perso, ça me suffit largement, j’ai un jeu sur 100 qui sort du tearing (et je joue beaucoup), je peux faire avec… <img data-src=" />







Edtech a écrit :



Va falloir réparer l’orthographe <img data-src=" />



G-Sync n’est utile que si le GPU ne suit pas et que le taux d’images par secondes est inférieur au taux de rafraîchissement de l’écran. Donc c’est valable pour les gens qui ont des GPU moyenne gamme. Mais si on doit mettre 100€ de plus dans l’écran, autant les mettre dans le GPU ! Pas sûr que ça se vende du coup leur truc…







C’est ça le problème ! Et quand je vois ma CG vieillissante (n’importe quel CG à 150 balles est beaucoup plus puissante maintenant) qui arrive à me sortir du 60fps en 1440p, faut vraiment avoir un truc d’un autre temps pour ne pas suivre en 1080p et avoir besoin de GSync <img data-src=" />







von-block a écrit :



En effet c’est souvent la dernière chose (même après le boitier) qu’on change, surtout quand à la base on a déjà un bon écran.



Je ne pense pas changé mon 27 Koréen S-IPS 1440P de si tôt.







Idem. D’ailleurs, j’ai découvert ces écrans grâce à toi à l’époque (je crois), je regrette pas du tout ! <img data-src=" />







bojack9512 a écrit :



Juste pour savoir, c’est de bonne qualité niveau contraste/couleurs?



Pas de reverse-ghosting non plus?



Et on chope où des écrans comme ça?<img data-src=" />(j’en ai vu sur ebay mais bon si jamais ya un site spécialisé…)







Y a export-privé qui en vend et ils testent un par un les écrans je crois (moi, j’avais pris sur ebay, j’aime vivre dangereusement <img data-src=" /> ).







Arona a écrit :



Et livraison en 3-4 jours depuis la Corée, ça fait bizarre aussi!







Ouais, encore plus pour moi dont les envois depuis la métropole mettent 10-15j <img data-src=" />


votre avatar

Chez HFR ils vont pas tarder à sortir un dossier aussi.



Dommage que la carte seule ne soit pas disponible à la vente, ça aurait été tellement classe !

Parce que là je la vois venir, les seuls moniteurs Gsync disponibles seront des moniteurs 120Hz kikoolol gaming sans contraste avec dalle TN et deltaE de 40.12 <img data-src=" />

votre avatar

Ce qui me dérange dans ce Gsync, c’est le fait qu’il nécessite absolument une CG nVidia récente (7xxx à priori, pas en dessous - je vais lire les tests). Et je pense la même chose de Mantle de AMD à vrai dire. Ou comment segmenter le marché <img data-src=" /><img data-src=" />

votre avatar

Sinon, il reste la synchro V-Sync.

<img data-src=" /> G-Sync c’est pour les Gpu d’feignasse d’Nvidia.

votre avatar

Cher Sébastien, est-on vraiment obligé de faire comme les américains et d’utiliser le terme “technologie” au sujet de la moindre fonction nouvelle ?

<img data-src=" />

Utilisez plutôt, par exemple :




  • Le système G-Sync

  • Le mécanisme G-Sync

  • Le procédé G-Sync

votre avatar







Gilbert_Gosseyn a écrit :



Ce qui me dérange dans ce Gsync, c’est le fait qu’il nécessite absolument une CG nVidia récente (7xxx à priori, pas en dessous - je vais lire les tests). Et je pense la même chose de Mantle de AMD à vrai dire. Ou comment segmenter le marché <img data-src=" /><img data-src=" />







Mantle me parait moins segmentaire mais bon.



J’imagine bien un monde ou les pc sont divisés en deux clans rivaux et oublient de cracher sur les mac. <img data-src=" />


votre avatar







StPierre2 a écrit :



J’imagine bien un monde ou les pc sont divisés en deux clans rivaux et oublient de cracher sur les mac. <img data-src=" />







Mais c’est l’enfer ce monde.<img data-src=" />


votre avatar

Eh ben, les testeurs ont plutôt l’air emballés par le truc – en même temps, ça paraît tellement simple comme idée de base, qu’après coup je me demande comment c’est possible que personne n’ait eu l’idée avant!



Par contre je constate un truc :




  • si on veut utiliser au max la puissance brute du GPU en évitant la surcharge dûe à DirectX, il faut passer par Mantle, qui ne fonctionne que sur les CG d’AMD (récentes, bien entendu);

  • si on veut profiter de la technologie G-Sync (spéciale dédicace au commentaire précédent <img data-src=" />), il faut passer par un écran compatible, et en plus ça ne fonctionne que sur les CG de NVidia (et récentes, évidemment).



    C’est moi ou on va vers une grosse segmentation du marché? <img data-src=" />

    J’ai l’impression que, parmi les perdants, on va pouvoir compter les joueurs – et les développeurs… (et peut-être bien AMD…).

votre avatar







PermaBananaed a écrit :



Sinon, il reste la synchro V-Sync.

<img data-src=" /> G-Sync c’est pour les Gpu d’feignasse d’Nvidia.







J’espère qu’au fond tu es un troll nvidia parce que à part passer pour un abruti qui n’a rien compris au sujet et qui confond tout tu fais passer les pro-AMD pour des incapables <img data-src=" />

Go te pendre avec les autres incapables pro- tout et n’importe quoi sur JV.COM <img data-src=" />







trshbn a écrit :



C’est moi ou on va vers une grosse segmentation du marché? <img data-src=" />

J’ai l’impression que, parmi les perdants, on va pouvoir compter les joueurs – et les développeurs… (et peut-être bien AMD…).







Bof vu qu’il faut investir dans du matos pour bénéficier de G-sync je pense plutôt que Nvidia va se sentir seul avec sa techno un peu comme si pour bénéficier de PhysX il aurait fallu absolument une carte en plus de la carte graphique dans le PC… G-sync restera vraiment anecdotique pour la majorité des joueurs PCs ..


votre avatar



De là, fini le choix entre activer ou non la synchronisation verticale, l’écran attend une nouvelle image provenant du GPU avant de se rafraîchir. Le but étant de supprimer les effets de tearing, de lag et de suttering.





en mettant la synchro verticale sur “adaptatif” (dans les paramètres 3D du pilote nvidia) ça remplace pas G-Sync ? ou alors j’ai pas compris l’interet de G-Sync ?

votre avatar

G sync apporte dans la plus part des cas un apport de fluidité et visiblement un gain de performance. 400 € pour un moniteur pc avec gsync cela me semble correct. Reste à voir plus de tests et voir si il ne faut pas attendre un gsync 2

votre avatar







Ideal a écrit :



Bof vu qu’il faut investir dans du matos pour bénéficier de G-sync je pense plutôt que Nvidia va se sentir seul avec sa techno un peu comme si pour bénéficier de PhysX il aurait fallu absolument une carte en plus de la carte graphique dans le PC… G-sync restera vraiment anecdotique pour la majorité des joueurs PCs ..







A voir les prix d’ici quelques mois mais si c’est un truc pas trop cher je vois pas ce qui pourrait foirer. Personnellement je vais probablement changer d’écran et de carte graphique l’année prochaine(enfin remarque je dis ça tous les ans mais là je supporte vraiment plus mon écran)et forcément au final faudra bien faire un choix et si l’écran est vraiment bon et pas trop cher(c’est à dire pas 100€ de plus, un reverse ghosting, un contraste foireux, des couleurs dégueulasse)il y a de fortes chances que je m’oriente vers un truc de ce genre.



Après faut voir aussi la riposte d’AMD ça pourra peut-être être intéressant.


votre avatar







spidy a écrit :



en mettant la synchro verticale sur “adaptatif” (dans les paramètres 3D du pilote nvidia) ça remplace pas G-Sync ? ou alors j’ai pas compris l’interet de G-Sync ?







Synchro V-Sync: Le GPU se synchronise sur le rafraichissement de l’écran.



G-Sync: L’écran se synchronise sur l’arrivée des frames du Gpu. (Frames qui ne viennent pas toutes à la même intervalle.)


votre avatar

la techno serais ouverte ça se démocratisations



maintenant un truc fermé comme ça ça décollera pas plus que le physyx et la 3D



ce qui est con il pourrais très bien vendre leur module et simplement laissai sont utilisation ouverte il se ferais + d’argent avec l’argent récolté sur chaque écran vendue





ça me fait un peut à l’autre débilité du physyx qui est bridé tant bien même tu veut achetter une seconde carte NVIDIA pour le gérer …


votre avatar

Là, on casse les standards. Je sais bien que c’est toujours ainsi que l’on progresse mais il n’y aurait pas trop de normes sur le marché ? En rajouter me paraît rendre les choses encore plus floues.

votre avatar

Plus de lag avec angry bird, le rêve. <img data-src=" /> <img data-src=" /> <img data-src=" /> <img data-src=" /> <img data-src=" /> <img data-src=" /> <img data-src=" />

votre avatar







PermaBananaed a écrit :



Synchro V-Sync: Le GPU se synchronise sur le rafraichissement de l’écran.



G-Sync: L’écran se synchronise sur l’arrivée des frames du Gpu. (Frames qui ne viennent pas toutes à la même intervalle.)





donc l’écran aura un v-sync dynamique ? ok j’avais pas vu la subtilité.


votre avatar







trshbn a écrit :





  • si on veut profiter de la technologie G-Sync (spéciale dédicace au commentaire précédent <img data-src=" />)





    Mééééheuuuu !

    <img data-src=" />

    C’est caca, ce mot.







    PermaBananaed a écrit :



    Synchro V-Sync: Le GPU se synchronise sur le rafraichissement de l’écran.



    G-Sync: L’écran se synchronise sur l’arrivée des frames du Gpu. (Frames qui ne viennent pas toutes à la même intervalle.)





    Le rafraichissement à intervalle fixe, c’est en fait un héritage des tubes cathodiques et de la façon dont l’image est affichée. Comme l’a dit un autre commentaire, c’est étonnant que pour les écrans LCD, on n’y ait pas pensé avant.


votre avatar

Ça me rappel les fameux Gliude2x.DLL et Physix….etc.



Un truc propriétaire fini toujours pas morfler si les constructeurs ne suivent pas derrière car je suppose aussi que ça risque de faire péter les prix des LCD qui sont au plus bas en ce moment, attendons de voir l’utilité et l’avenir de ce chip.

Revue de presse : la technologie G-Sync de NVIDIA tient-elle ses promesses ?

Fermer