Avec l'arrivée de ses GeForce GTX 970 et 980, NVIDIA a été le premier à mettre sur le marché une carte graphique capable de gérer le HDMI 2.0. L'occasion pour nous de vérifier le fonctionnement de cette nouvelle norme et de voir si elle est compatible avec un environnement à plusieurs écrans.
Alors que le DisplayPort 1.2 gère depuis bien longtemps la 4K à une fréquence de 60 Hz (voir notre analyse avec un écran ASUS), ce n'était pas encore le cas de l'HDMI jusqu'à il y a encore peu de temps. En effet, le HDMI 1.4 était limité à ce niveau à une fréquence de 24 à 30 Hz selon la définition, soit de quoi permettre la lecture d'un film, mais rien de plus. C'était donc loupé pour les jeux et une utilisation avec un PC de manière plus générale. Les premiers moniteurs 4K étaient donc équipés de deux ports HDMI 1.4 ou d'un DP 1.2.
HDMI 2.0 : objectif, rattraper le retard par rapport au DisplayPort 1.2
Mais pour les TV, autant dire que cela n'était pas sans poser quelques soucis. En effet, le DP n'est pas une connectique très répandue dans le salon et sur les amplis. De plus, le grand public ne connaît que le HDMI ou presque. Bien que le DisplayPort soit sans royalties, les industriels ne voulaient pas prendre le risque de bousculer le marché, et ont donc attendu le HDMI 2.0 patiemment.
C'est en septembre 2013 que la norme est finalisée. Ainsi, on voit depuis quelques mois des TV l'exploiter, mais jusqu'à maintenant, ce n'était le cas d'aucune carte graphique. En attendant, NVIDIA avait trouvé une première astuce permettant tout de même d'utiliser de la 4K @ 60 Hz via le HDMI 1.4, lorsque l'écran ou la TV le permettait. Avec l'arrivée des GeForce GTX 970 et 980, NVIDIA est le premier à proposer le support de l'HDMI 2.0 et son débit de 18 Gb/s.
GeForce GTX 900 : HDMI 2.0 et 5K au programme
Dans la documentation technique qui accompagne la sortie de ses cartes, la marque est d'ailleurs un peu plus précise. La définition maximale pouvant être supportée par sa carte est de type 5K (5120 x 3200 pixels) @ 60 Hz, contre 3840 x 2160 pixels pour la génération Kepler. C'est plus que le fameux écran Dell 5K annoncé récemment (5120 x 2880), qui nécessitera sans doute un passage au DP 1.3. Est-ce que cela veut dire que NVIDIA se réserve l'annonce d'une telle compatibilité ? Impossible à dire pour le moment.
Comme précédemment, le nombre d'écrans supportés est par contre de quatre, avec la possibilité d'activer le mode Surround, et ce même sur des écrans de type G-Sync. Il faut dire que la connectique par défaut de la carte est plutôt fournie : trois DP 1.2, un HDMI 2.0 et un DVI-DL. Nous avons donc décidé de rapatrier trois écrans 1080p, un écran G-Sync et une TV 4K avec HDMI 2.0 que nous avons commandé pour les labos : la LG 42UB820V.
Pas besoin de changer de câble : connectez-le et ça fonctionne
Et comme annoncé par la marque : cela fonctionne. En effet, il suffit de prendre un câble HDMI (ceux-ci ne changent pas) sur le port 2.0 de la carte graphique et de la TV. Vous aurez alors la possibilité d'activer une fréquence maximale de 4096 x 2160 pixels @ 60 Hz dans les paramètres de Windows. Notez que dans le panneau de configuration de NVIDIA c'est la même chose, mais avec une subtilité : il faudra se rendre dans la section PC et non pas dans Ultra HD / HD / SD qui se limite à du 30 Hz :
On peut alors profiter pleinement de la fluidité de la souris, même si utiliser Windows sur une telle diagonale n'est pas des plus confortable. Pour les jeux, cela prend par contre une autre dimension, même s'il faudra pour cela disposer d'une carte graphique assez puissante (nous y reviendrons dans une prochaine analyse).
Gérer quatre écrans, dont une TV 4K, c'est aussi possible
Et du côté de la gestion multi-écran ? En effet, NVIDIA annonce pouvoir gérer quatre affichages en simultanée, mais est-ce aussi possible en 4K @ 60 Hz. Selon nos essais : oui. En effet, nous avons pu utiliser trois écrans en 1080p avec la TV en complément sans problème. Voici d'ailleurs le bureau que nous avons obtenu pour l'occasion :
Il en était de même si un des trois écrans était un modèle G-Sync en 2560x1440 pixels (un Swift PG278Q d'ASUS). Nous n'avons malheureusement pas pu tester ce qu'il en était avec plusieurs de ces modèles ou plusieurs TV 4K pour le moment. Mais cela ne devrait là non plus pas poser de soucis.
NVIDIA respecte donc bien ce qui est annoncé avec ses GTX 970/980 du côté des définitions et des normes supportées. On appréciera au passage que la connectique arrière suffise à exploiter de multiples écrans même s'il faudra parfois passer par des adaptateurs DP / HDMI vu que c'est cette première connectique qui est présente en grande majorité (trois ports sur un modèle de référence). Il sera intéressant de voir si le DP 1.3 s'ajoute finalement à la liste dans les mois à venir.
Notez enfin que si nos tests ont fonctionné nativement pour notre TV, un modèle plus ancien pourra peut-être nécessiter une mise à jour de son firmware pour que tout se passe bien. Si tel est votre cas, n'hésitez pas à nous le faire savoir au sein de nos commentaires.
Commentaires (38)
#1
Il n’y a que moi pour penser que c’est un marché de niche ?
#2
#3
Ca me fait envie les écrans 4K pour bosser, mais ça à l’air juste vraiment chère ^^
#4
#5
" /> Je suis assez étonné.
J’ai reçu ma gtx970 samedi mais je n’avais qu’un câble mini DP. En attendant j’ai donc utilisé un câble HDMI pour connecter mon dell U2713HM (2560x1440).
Et bien impossible de dépasser le 1920x1080, aussi bien dans la partie PC ou HD des drivers (les derniers disponibles). J’ai été super déçu et pas moyen de monter en résolution, sauf à créer une résolution personnalisée mais avec une image dégradée.
Fonctionnement OK avec un câble dual-DVI et maintenant mon câble DP tout neuf.
Cela devait donc venir du câble HDMI mais je n’en avais pas d’autre disponible sous la main.
#6
#7
#8
#9
#10
#11
Pourquoi Dell ne fait plus d’écran Haut de gamme ?
J’ai toujours mon 2707WFP depuis 2007 et j’aimerais bien le replacer par un plus récent.
Le problème c’est que tous les écrans d’aujourd’hui font cheap. Finition plastique et pied non mobile.
#12
#13
#14
#15
#16
#17
#18
Vivement le DP 1.3 pour profiter du 4k et 5k en 120hz/144hz.
#19
Je me pose une question que je ne m’étais jamais posée avant concernant l’adaptative sync… Comment ça fonctionne avec du multi écran ?
Chaque écran adapte son taux de rafraichissement en attendant les images de la carte graphique indépendant des autres ? Le fonctionnement n’est pas différent d’avant ? La carte graphique n’a aucune chose à faire ?
C’est marrant mais je me pose la même question avec un rafraichissement fixe différent. Par exemple, 75hz et 60hz.
Peut être qu’il est trop tard pour moi mais j’avoue ne pas avoir de piste pour le coup " />
#20
Permettez moi de vous corriger : le SWIFT est en 2560x1440, et non en 2560x1600 :) !
#21
et pour la GTX 750 non ?
#22
#23
#24
#25
#26
#27
“5120 x 3200 pixels) @ 60 Hz, contre 3840 x 2160 pixels pour la génération Kepler. C’est plus que le fameux écran Dell 5K annoncé récemment (5120 x 2880)”
C’est pas vraiment “plus”, il me semble que cela correspond juste à intégrer les écrans 16:10 dans la même plage de résolution.
En informatique ce format est très prisé (par les graphistes notamment).
#28
Je sors de ma niche.
Possédant 224°brancher en DVI + 1 27° 25601440 (U2713HM) en DP et une LG 55UB850V (4K en 55°) branché sur un port compatible HDMI 2.0 mais limité en 1.4a vue que j’ai une GTX 770.
J’ai eu pas mal de soucis lié à ce problème de fréquence vue qu’avec le dernier drivers nvidia, ma télévision était reconnu en tant que écran 60 hertz brancher en HDMI 2.0. (pas en 1.4a)
Windows plantait littéralement, donc par dépit j’ai remis l’ancien drivers.
Aujourd’hui j’ai vue qu’il y avais une maj de l’os de ma télévision ce qui m’as permis de mettre le nouveau drivers. (car j’ai pu brider la résolution de la télévision pendant l’installation)
Et tout fonctionne nickel, actuellement je fais ça pour avoir du 4K en 60 Hertz (4:2:0):
http://www.nextinpact.com/breve/88288-nvidia-propose-4k-60-hz-via-hdmi-1-4.htm
Je me tâte pour m’acheté une 970 pour passer en 60 Hertz natif en 4:4:4, enfin je ne sais pas si ça vaux le coup vue que j’ai déjà une bonne carte vidéo.
Actuellement je ne joue pas sur ma télévision 4K, j’utilise XBMC et des flux en streaming dessus.
#29
De plus, le grand public ne connaît que le HDMI ou presque.
La belle excuse, le grand public. Lui il branche ce qu’il y a à brancher.
Ca serait pas plutot pour faciliter le contrôle des DRM ?
#30
sur le U2713HM, que j ai aussi, la full reso en HDMI ne vient pas de la norme (1.4 suffirait) mais bien du “firmware” moisi de l écran qui refuse les 60Hz.
Par contre, pas de soucis pour créer une reso personalisée 2560*1440 @30Hz.
Ainsi, je l utilise en DP sur mon fixe @ 60Hz et en HDMI de mon portable @ 30Hz.
(pas de dual dvi sur le fixe avec gpu/cpu Intel).
Le 30Hz pour bosser (web+prog) n est pas génant.
#31
#32
#33
Bientôt du triple screen en 4K incurvé <3
#34
#35
#36
Etait-ce vraiment du 3840x2160 60Hz 4:4:4 avec ce TV LG ? Cela pourrait être du 4:2:0, officiellement supporté dans la norme HDMI2.0, mais qui compte tenu du débit se comporte toujours comme du 1.4 au niveau physique (TMDS).
#37
#38
Quelqu’un a-t-il croise une tele 4k avec DP1.2 et une diagonale de 50” (qui ne coute pas un rein si possible?)
l’idee c est de remplacer 3U2412M en mode portrait (donc ~50”) emulant plus ou moins 6ecrans du boulot, et pouvoir egalement jouer sans ces grosses bordures et sans changer de GPU (690GTX)
plus le temps avance et plus je me dis que ca ne va pas passer sur cette generation de GPUs (ou alors avec des bidouilles du genre 4:4:4 -> 4:2:0)