Revue de presse : la technologie G-Sync de NVIDIA tient-elle ses promesses ?
Une évolution intéresante, mais à quel prix ?
Le 13 décembre 2013 à 10h50
2 min
Sciences et espace
Sciences
Il a un peu moins de deux mois, NVIDIA dévoilait sa technologie G-Sync qui se propose de revoir complètement la manière dont un écran communique avec le GPU et affiche les images qu'il génère. Les premiers tests ont été publiés par nos confrères américains, l'occasion de savoir si les promesses seront tenues ou non.
Le 18 octobre, NVIDIA tenait une conférence de presse à Montréal où le fabricant a dévoilé plusieurs nouveautés : une GeForce GTX 780 Ti afin de contrer la Radeon R9 290X ainsi que G-Sync. Cette technologie nécessite évidemment une GeForce et prend la forme d'un module qui doit être intégré à un écran afin de le rendre compatible. De là, fini le choix entre activer ou non la synchronisation verticale, l'écran attend une nouvelle image provenant du GPU avant de se rafraîchir. Le but étant de supprimer les effets de tearing, de lag et de suttering.
NVIDIA vient d'autoriser la publication des premiers tests de G-Sync, c'est donc l'occasion d'en savoir plus à travers différentes analyses qui ont été réalisés sur le même écran : un VG248QE d'ASUS modifié par NVIDIA. Pour rappel, ASUS ne proposera pas de version G-Sync native de cet écran, puisque ce genre de produit n'est pas attendu avant l'année prochaine. Cette version modifiée ne sera d'ailleurs pas au catalogue de la marque, bien que NVIDIA devrait pousser son arrivée chez les revendeurs chez nous, mais surement en très petites quantités et à un tarif que l'on nous annonce déjà comme bien plus important que les 300 euros du VG248QE.
Il sera intéressant de voir ce que cela donne réellement une fois que les revendeurs disposeront de cette référence en stock, en espérant que l'on retrouvera des montants inférieurs une fois la nouvelle vague de produits G-Sync disponible. Bien entendu, nous vous tiendrons informés de toute nouvelle information sur ce point et le prochain CES devrait sans doute être l'occasion de nombreuses annonces.
En attendant, voici les tests de nos confrères (en anglais) :
Commentaires (30)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 13/12/2013 à 13h59
Le 13/12/2013 à 14h11
Mouais, je pense pas que les gens changent leurs écran tous les ans. C’est un des dernier truc qui reste que les gens changent uniquement quand il crève dans la plupart des cas. Je pense donc que ça aura un taux de pénétration très faible.
Le 13/12/2013 à 14h11
Le 13/12/2013 à 14h27
Le 13/12/2013 à 16h47
Le 13/12/2013 à 16h57
Le 13/12/2013 à 17h05
Le 13/12/2013 à 19h33
Le 13/12/2013 à 23h53
Le 14/12/2013 à 09h53
J’avais un 22” Viewsonic TN de 2007 avant.
Je ne suis pas spécialiste en écrans donc seul mon ressenti compte.
Mais la seul chose qui me dérange un peu est la rémanence, qui est plutôt bonne cela dit mais la taille de l’écran accentue un peu l’effet en jeu, pas de reverse ghosting.
Après j’ai comparé avec des TN de bureau et des TN 120Hz sur PC portable de gamer et c’est vraiment la taille qui perturbe en fait.
Le modèle que j’ai acheté est celui-là. avec uniquement la prise DVI-DL pour pouvoir gérer la fréquence d’affichage par le GPU et sans OSD ce qui diminue la latence.
Franchement pour 330€, c’est de la bombe!
Et livraison en 3-4 jours depuis la Corée, ça fait bizarre aussi!
Le 14/12/2013 à 11h59
Le 15/12/2013 à 08h43
GSync, ça m’aurait tenté si on pouvait avoir la carte à part (je ne sais pas si tous les écrans peuvent supporter le changement de fréquence à la volée sans “clignoter”) mais en l’état, bof. Puisque quelqu’un a parlé de Mantle, ça me tente plus mais Physx et Shadowplay me tentent aussi chez nVidia, font chier à séparer les trucs comme ça…
Le 13/12/2013 à 11h04
Chez HFR ils vont pas tarder à sortir un dossier aussi.
Dommage que la carte seule ne soit pas disponible à la vente, ça aurait été tellement classe !
Parce que là je la vois venir, les seuls moniteurs Gsync disponibles seront des moniteurs 120Hz kikoolol gaming sans contraste avec dalle TN et deltaE de 40.12 " />
Le 13/12/2013 à 11h12
Ce qui me dérange dans ce Gsync, c’est le fait qu’il nécessite absolument une CG nVidia récente (7xxx à priori, pas en dessous - je vais lire les tests). Et je pense la même chose de Mantle de AMD à vrai dire. Ou comment segmenter le marché " />" />
Le 13/12/2013 à 11h21
Sinon, il reste la synchro V-Sync.
" /> G-Sync c’est pour les Gpu d’feignasse d’Nvidia.
Le 13/12/2013 à 11h30
Cher Sébastien, est-on vraiment obligé de faire comme les américains et d’utiliser le terme “technologie” au sujet de la moindre fonction nouvelle ?
" />
Utilisez plutôt, par exemple :
Le 13/12/2013 à 11h45
Le 13/12/2013 à 11h51
Le 13/12/2013 à 11h54
Eh ben, les testeurs ont plutôt l’air emballés par le truc – en même temps, ça paraît tellement simple comme idée de base, qu’après coup je me demande comment c’est possible que personne n’ait eu l’idée avant!
Par contre je constate un truc :
C’est moi ou on va vers une grosse segmentation du marché? " />
J’ai l’impression que, parmi les perdants, on va pouvoir compter les joueurs – et les développeurs… (et peut-être bien AMD…).
Le 13/12/2013 à 11h55
Le 13/12/2013 à 12h11
De là, fini le choix entre activer ou non la synchronisation verticale, l’écran attend une nouvelle image provenant du GPU avant de se rafraîchir. Le but étant de supprimer les effets de tearing, de lag et de suttering.
en mettant la synchro verticale sur “adaptatif” (dans les paramètres 3D du pilote nvidia) ça remplace pas G-Sync ? ou alors j’ai pas compris l’interet de G-Sync ?
Le 13/12/2013 à 12h15
G sync apporte dans la plus part des cas un apport de fluidité et visiblement un gain de performance. 400 € pour un moniteur pc avec gsync cela me semble correct. Reste à voir plus de tests et voir si il ne faut pas attendre un gsync 2
Le 13/12/2013 à 12h18
Le 13/12/2013 à 12h19
Le 13/12/2013 à 12h22
la techno serais ouverte ça se démocratisations
maintenant un truc fermé comme ça ça décollera pas plus que le physyx et la 3D
ce qui est con il pourrais très bien vendre leur module et simplement laissai sont utilisation ouverte il se ferais + d’argent avec l’argent récolté sur chaque écran vendue
ça me fait un peut à l’autre débilité du physyx qui est bridé tant bien même tu veut achetter une seconde carte NVIDIA pour le gérer …
Le 13/12/2013 à 12h27
Là, on casse les standards. Je sais bien que c’est toujours ainsi que l’on progresse mais il n’y aurait pas trop de normes sur le marché ? En rajouter me paraît rendre les choses encore plus floues.
Le 13/12/2013 à 12h29
Plus de lag avec angry bird, le rêve. " /> " /> " /> " /> " /> " /> " />
Le 13/12/2013 à 12h29
Le 13/12/2013 à 12h40
Le 13/12/2013 à 13h39
Ça me rappel les fameux Gliude2x.DLL et Physix….etc.
Un truc propriétaire fini toujours pas morfler si les constructeurs ne suivent pas derrière car je suppose aussi que ça risque de faire péter les prix des LCD qui sont au plus bas en ce moment, attendons de voir l’utilité et l’avenir de ce chip.