HDMI 2.1 : 48 Gb/s, 8K à 60 Hz, Dynamic HDR et fréquence variable (VRR)
Le HDMI enfin adapté aux joueurs ?
Le 05 janvier 2017 à 10h20
4 min
Sciences et espace
Sciences
HDMI 2.1 est officialisé et marque une grosse évolution par rapport à HDMI 2.0. La bande passante passe à 48 Gb/s, le Dynamic HDR et l'eARC sont de la partie, tout comme le mode VRR (Variable Refresh Rate) pour les joueurs.
À l'occasion du CES de Las Vegas, le HDMI Forum organisait une conférence de presse afin de dévoiler les grandes lignes de la norme HDMI 2.1, qui est bien évidemment rétrocompatible avec les anciennes versions. Celle-ci apporte plusieurs nouveautés, dont une bande-passante plus que doublée puisqu'elle passe de 18 à 48 Gb/s.
De la 8K à 60 Hz ou de la 4K à 120 Hz, avec Dynamic HDR
Alors que HDMI 2.0 permet de faire passer de la 4K à 60 Hz, HDMI 2.1 repousses cette limite avec, par exemple, de la 8K à 60 Hz ou de la 4K à 120 Hz. Le groupe précise qu'il ne s'agit que d'exemples et que vous êtes libre de faire passer la définition et le taux de rafraichissement que vous voulez, du moment que le débit ne dépasse pas les 48 Gb/s bien évidemment.
Le HDMI 2.1 n'est pas qu'une augmentation de la bande-passante, il propose également de nouvelles fonctionnalités. Il est ainsi question du Dynamic HDR qui permet de spécifier image par image, ou bien scène par scène, les informations liées aux couleurs, alors que le HDR classique ne permet de le faire que sur la vidéo en entier.
Un mode VRR pour les joueurs, des améliorations pour la partie audio
Il est ensuite question du Game Mode VRR (Variable Refresh Rate) qui, comme son nom l'indique, permet d'afficher les images provenant de la carte graphique au moment où elles sont disponibles. Le représentant nous confirme qu'il s'agit d'une solution équivalente à ce que propose AMD avec FreeSync et NVIDIA avec G-Sync, mais qu'elle est désormais intégrée dans la norme HDMI 2.1, tout comme elle fait déjà partie des dernières versions du DisplayPort.
Reste à voir si l'un ou l'autre des fabricants de GPU exploiteront ce mode, AMD proposant déjà une compatibilité de FreeSync avec le HDMI via une solution maison pour l'instant. Le Forum HDMI n'avait pas de réponse à nous apporter pour le moment, laissant les constructeurs s'exprimer.
Enfin, côté audio, il est question de la prise en charge d'eARC (enhanced Audio Return Channel), mais sans vraiment plus de détails sur les nouveautés apportées. Il est simplement question de « fonctions avancées » pour le contrôle du signal audio et d'une détection automatique des périphériques par la télévision.
Un nouveau câble pour profiter du HDMI 2.1 ? Quid des anciens ?
Dernier changement, et pas des moindre, il faudra un nouveau câble, simplement baptisé « 48G Cable » pour profiter pleinement de HDMI 2.1, tout du moins en théorie. Durant la conférence de presse, les intervenants ne laissaient pas planer le doute : un nouveau câble est nécessaire afin de profiter pleinement de toutes les fonctionnalités de HDMI 2.1.
Même son de cloche dans la FAQ. À la question « est-ce que la 8K à 60 Hz ou la 4K à 120 Hz nécessite un nouveau câble ? », la réponse est « oui, un nouveau câble est requis ». Néanmoins, quelques lignes plus loin, la situation se complique. Lorsqu'il s'agit de savoir si le 48G Cable est nécessaire pour profiter des spécifications du HDMI 2.1, le HDMI Forum explique qu'il s'agit du « meilleur moyen » d'y arriver, rien de plus.
Enfin, il est précisé que les câbles HDMI High Speed actuels avec prise en charge d'Ethernet peuvent « prendre en charge certaines des nouvelles fonctionnalités ». Il sera donc intéressant de voir ce qu'il en est dans la pratique.
Reste la question de la date de mise sur le marché. Les détails techniques de cette nouvelle norme seront disponibles pour les membres du HDMI Forum durant le second trimestre de l'année, il faudra donc certainement encore attendre avant de voir débarquer les premiers terminaux estampillés HDMI 2.1.
Enfin, le HDMI Forum nous précise qu'une mise à jour logicielle peut parfois suffire à passer de HDMI 2.0 à 2.1, mais que ce n'est pas systématique. Cela dépend de l'implémentation et du bon vouloir de chaque fabricant.
HDMI 2.1 : 48 Gb/s, 8K à 60 Hz, Dynamic HDR et fréquence variable (VRR)
-
De la 8K à 60 Hz ou de la 4K à 120 Hz, avec Dynamic HDR
-
Un mode VRR pour les joueurs, des améliorations pour la partie audio
-
Un nouveau câble pour profiter du HDMI 2.1 ? Quid des anciens ?
Commentaires (67)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 05/01/2017 à 16h11
Le 05/01/2017 à 16h17
High Video ResolutionsQ: Will 8K@60 or 4K@120 require a new cable or cable connector?A: Yes a new cable is requiredQ: What are the support resolutions and frame rates?A:•4K50/60•4K100/120•5K50/60•5K100/120•8K50/60•8K100/120•10K50/60•10K100/120Q: What colorimetry is supported?A: HDMI 2.1 Specification supports the latest color spaces including BT.2020 with 10, 12, and 16 bits per color component.
48G CableQ: Is this cable required for delivering HDMI 2.1 Specification features?A: The cable is the best way to ensure the high-bandwidth dependent features are delivered including the enhanced video and audio performance, and accounting for the new EMI characteristicsQ: Will existing HDMI High Speed cables deliver the HDMI 2.1 features also?A: While existing HDMI High Speed Cables with Ethernet can deliver some of the new features, the new cable is the best way to connect HDMI 2.1 enabled devices to ensure delivery of all the features.Q: What connectors does this cable use?A: It is compatible with HDMI connectors Types A, C and D.Q: Does the cable have an Ethernet channel?A: Yes it supports the HDMI Ethernet Channel.Q: Can this new cable work with existing HDMI devices?A: The cable is backwards compatible and can be used with existing HDMI devices for the delivery of legacy HDMI features.
Le 05/01/2017 à 16h39
Le 05/01/2017 à 18h02
Le 05/01/2017 à 18h30
Le 06/01/2017 à 17h19
J’arrive un peu en retard, mais par rapport au DP 1.4 il n’y a que le VRR en plus sur l’HDMI si je m’abuse?
8K 60Hz Ok *24bit compression
4k 120Hz Ok
DHDR Ok
VRR ?
Le 07/01/2017 à 01h02
C’est de la mauvaise foi, j’ai un écran 144 hz et des 60 hz côte à côte, il suffit de passer un jeu ou une fenêtre même d’un écran à l’autre pour voir le gouffre d’image par seconde perdue.
Je pense que tu n’as jamais eu l’occasion de comparé, et si c’est le cas, alors je veux bien croire certaines personnes ne peuvent distinguer la différence, mais étrangement il a yen aucunes dans mon entourage…
Le 07/01/2017 à 14h58
Le 05/01/2017 à 10h25
Vu l’illustration, le câble ne pourra pas passer partout " />
Le 05/01/2017 à 10h28
Enfin, côté audio, il est question de la prise en charge d’eARC
(enhanced Audio Return Channel), mais sans vraiment plus de détails sur
les nouveautés apportées. Il est simplement question de « fonctions avancées » pour le contrôle du signal audio et d’une détection automatique des périphériques par la télévision.
Pour la détection automatique des périphériques, les TV détectent déjà automatiquement l’ampli, je vois mal ce qu’on peut faire de plus. Peut-être une prise en charge des formats audio lossless par le canal de retour audio ?
Enfin, il est précisé que les câbles HDMI High Speed actuels avec prise en charge d’Ethernet peuvent « prendre en charge certaines des nouvelles fonctionnalités ».
Prise en charge d’Ethernet qui n’a absolument jamais été implémentée par aucun fabricant… " /> Ça aurait pourtant réduit le fatras de câbles avec une TV ou un ampli jouant le rôle de switch Ethernet !
Le 05/01/2017 à 10h31
Reste à voir si l’un ou l’autre des fabricants de GPU exploiteront ce mode, AMD proposant déjà une compatibilité de FreeSync avec l’HDMI via une solution maison pour le moment.
Pour Nvidia je ne le vois malheureusement pas du tout l’exploiter, ça serait mettre un terme à son G-Sync et sa licence qui coûte bonbon.
Le 05/01/2017 à 10h40
De la 8K et à 60 Hz, c’est quand même de la belle masturbation.
Sur quel écran pourra-t-on voir la différence entre de la 4K (de la vraie 4K issue d’une source pas trop compressée) et plus ? Chez soi ça me paraît très douteux, et par ailleurs avec 4K on est déjà au niveau d’une très belle image de cinéma.
Le 05/01/2017 à 10h42
Donc la connectique reste la même mais le câble a une différente “qualité” ? Un peu comme les catégories pour le cablage réseau ?
Le 05/01/2017 à 10h43
Pour la VR où tu as 4K dans chaque œil comme sur le casque Pimax d’hier ?
Le 05/01/2017 à 10h56
Bon ca me sera peut être utile dans 10 ans… car du contenu en 8K et surtout un moyen de l’afficher abordable… ce n’est pas pour demain
On commence à peine à avoir du FULL HD de qualité chez les opérateurs, alors la 4K en surtout la 8K… on va attendre
Le 05/01/2017 à 10h56
Le 05/01/2017 à 10h56
Le 05/01/2017 à 10h58
perso pour jouer je veux du 60hz … donc le 120hz en 4K est intéressant et pas fait par le 2.0 si?
Actuellement le rafraîchissement des casque c’est 90hz…
Mais bon c’est toujours le même débat, avant avec le 1080p on disait la 2K puis la 4K ca sert a rien on verra pas la dif, maintenant c’est avec la 8K (perso je suis encore en 1080 et je vois pas le besoin d’avoir plus… mais pourquoi ne pas apprécié l’avancé technologique?)
Le 05/01/2017 à 10h59
Le 05/01/2017 à 10h59
Je n’ai pas vraiment lu la news car la VR ne m’intéresse pas mais il parle bien d’écran 8K en 7680x2160.
Le 05/01/2017 à 11h01
Le 05/01/2017 à 11h03
Le 05/01/2017 à 11h06
Tiens ca faisait longtemps! :http://hitek.fr/actualite/frame-rate-jeux-videos-oeil_6959
Voila, l’idee de la perception limité des image par l’oeil est un faux débat.
Je suis en 144hz sur mon écran de jeu et je perçois cette plus grande fluidité/suppression de l’effet de balayage.
Alors avec un ecran a 2 cm de mes yeux j’imagine assez bien que le rafraîchissement + la définition est importante.
Le 05/01/2017 à 11h13
Le 05/01/2017 à 11h20
Bah du 8K sur un écran PC que tu as sur ton bureau ça sert peut-être à rien (je demande à voir quand même " />) mais pour des écrans que tu as collés aux rétines je ne pense pas que se soit du “pur marketing”.
En tout cas dire ça sans les avoir eu sur le bout du nez c’est… bête.
Le 05/01/2017 à 11h53
Je ne sais pas vous, mais je commence à saturer avec ce CES. Depuis quand cet événement est important? Il s’agit de simples annonces sur des produits non finalisés. Dans 90% des cas on ne connaît pas le prix ni la disponibilité. Pire entre l’annonce et la mise à disposition du produit il se peut qu’il change radicalement. Enfin pour une personne un tant soit peu intéressée, elle attendra obligatoirement les premiers retours clients avant d’acheter quoique ce soit et non les CR laudatifs qui pullulent actuellement
Le 05/01/2017 à 11h53
Le 05/01/2017 à 12h03
Le 05/01/2017 à 12h04
J’sais pas colle toi un tél en 480p à l’œil et fait la même chose avec un 1080p si tu n’arrives pas à voir la différence sur le papier.
Le 05/01/2017 à 12h07
Il suffirait d’intégrer un chip de fabricant tiers pour gérer le switching réseau. Une TV, c’est comme un PC, ce n’est rien de plus que de l’assemblage de composants de fabricants différents (et même la dalle !) regroupés dans un boîtier avec le logo de la marque, alors un de plus ou un de moins…
Quant à la sécurité, les switches grand public premier prix n’en font pas plus, d’ailleurs, hors monde professionnel, ce rôle est plutôt laissé au routeur.
Le 05/01/2017 à 12h09
Manque plus que le KVM HDMI 2.1 Dual Screen pour contrôler, allez, juste 2PC : 3.500€ " />
(le modèle 4P sera à 15.000€… " />)
" />
Le 05/01/2017 à 12h22
Si je peux mater mon porno en 8k ça me va.
Le 05/01/2017 à 12h24
Le 05/01/2017 à 12h25
Le 05/01/2017 à 12h26
Le 05/01/2017 à 12h30
Le 05/01/2017 à 12h34
J’espère que la 4K résoudra le SDE. C’est déjà un défi technologique en soit de miniaturiser ça dans les HMD.
Je possède un Rift CV1, et là, ça dépend des gens; certains ne voient pas le SDE, moi je vois que ça. Après, l’immersion est là, et au bout d’un moment tu l’oublies un peu.
Il y a d’autres tricks aussi comme augmenter le chaperone, le pixel per pixel overrride, le supersampling, mais au final la limite techno fait que avec les lentilles juste devant les yeux, en 1200p le SDE saute aux yeux. Ca se voit vraiment sur le texte, on distingue bien chaque pixel qui compose les lettres.
J’espère vraiment que du 4k dans le HMD résoudra ça, et pas attendre le 48k " />
Le 05/01/2017 à 12h38
Le 05/01/2017 à 12h40
Et c’est un double faux débat car en plus de dépendre de tout un tas de facteurs physiologiques (cités dans l’article), cela dépend également de divers aspects technologiques employés.
Exemple : je viens de m’acheter un écran G-Sync, et dans certains jeux qui mettent quand même ma nouvelle CG un peu à genoux, j’ai des scènes/portions de jeu où je n’ai que 26 ou 28 FPS, et pourtant c’est d’une fluidité remarquable. Alors qu’avec mon ancien écran 120Hz, la fluidité ne commençait pour moi qu’à partir de 45 ou 50 FPS. Tout ça grâce à la synchronisation intelligente entre le GPU et l’écran qui affiche les images.
Le 05/01/2017 à 12h43
Il y a un marché, ça peut percer.
Je te conseille vraiment d’essayer un rift CV1 ou un Vive, c’est très bluffant, l’immersion est bien là même avec ce SDE de première gen. Tu es vraiment englobé dans cet environnement virtuel à 360°. Il n’y a pas que les jeux, j’ai une appli d’astronomie, quand tu la lances, tu es englobé par la carte stellaire qui se déploie tout autours de toi, c’est le pied total.
Le 05/01/2017 à 12h49
Bah on parlait VR il y a 2 minutes donc les yeux collé à l’écran oui… Tu le fais exprès en fait non ?
Le 05/01/2017 à 12h52
Le 05/01/2017 à 12h53
Sauf que tu parlais de 480p ou un peu plus, là où moi je parle de résolutions qui dépassent les 4K et qui donc flirtent avec l’excellence.
Le 05/01/2017 à 12h55
Attention quand même ce qu’on nomme le “screen door effect” est plus lié à la taille de la zone entre les pixel que la résolution elle même : affichage d’une ligne noire entre les pixels. Si il n’y avait pas d’espace entre les pixel tu n’aurais pas de ligne noire et pas “d’effet de grille”.
Maintenant augmenter la résolution a pour effet “mécanique” de réduire cet effet, mais si on avait une technologie qui n’a pas autant d’espace entre les pixels, tu n’aurais pas d’effet de grille.
Le 05/01/2017 à 12h56
Le casque fait 8K pour afficher 4K à chaque œil donc ça ne dépasse finalement pas le 4K.
Le 05/01/2017 à 12h57
Pour le câble, j’imagine que ce sera comme pour le réseau.
Il y a des câbles certifiés pour un certain débit. On peut avoir un débit plus élevé que la norme, mais ce n’est pas garanti.
Le 05/01/2017 à 13h00
C’est drole, tu te contredis tout seul.
Pour info, oui, l’oeil et le cerveau s’habituent , donc même si tu penses ne pas voir de différence aujourd’hui, t’inquiètes que tu la verras au bout de quelques temps.
Quant à l’inutile évolution, elle a pour conséquence de faire baisser le tarif de l’ancienne inutile évolution devenue tout à coup essentielle.
Bref,si t’es intelligent, tu l’ acceptes et au final tu seras gagnant.
C’est le principe même de notre cerveau et de nos sens qui évoluent en fonction de leur utilisation.
Le 05/01/2017 à 13h01
Le 05/01/2017 à 13h03
Le 05/01/2017 à 13h03
En effet, tu peux réduire la qualité de l’image en réduisant les détails pour conserver autant que faire se peut la fréquence verticale native de l’écran. Mais malgré tout, 60 ou 120 images par seconde en Full HD, ça demande quand même pas mal de ressources, et toutes les cartes graphiques ne le peuvent pas. La mienne d’avant ne le pouvait pas même en qualité “médiocre” sur certains jeux. Elle était ancienne.
Dans mon cas je privilégie autant la qualité d’image que sa fluidité. En revanche je n’active jamais, au grand jamais les divers effets de flou cinétique (motion blur), flous de mise au point (focus) ni tout autre flou. Dans les jeux-vidéos, les pseudo-effets de flous me démontent systématiquement la rétine quand je tourne la tête.
En bref, je ne reviendrais pas sur un écran “normal” à savoir un écran qui ne synchronise pas sa fréquence de rafraichissement vertical sur ce que le GPU est capable de fournir. Qui plus est, le GPU n’a plus besoin de bosser à 100% constamment pour proposer 350 FPS inexploitables, il ne bosse que dans la plage comprise entre ce qu’il peut calculer et la fréquence max de l’écran. Cet atout permet clairement de réduire la consommation, la chaleur dégagée, et le bruit des ventilateurs qui refroidissent tout ça.
Pour moi c’est vraiment une avancée technologique géniale, et ça montre vraiment que déterminer la fluidité d’une scène en fonction du FPS est une erreur.
Le 05/01/2017 à 13h06
Tout à fait, c’est ce qui correspond au pitch sur un écran.
Cela dit, il y a une limite à ce que l’on peut faire dans ce domaine, le screen door effect sera je pense atténué en travaillant sur les deux aspects: pitch et résolution.
Le 05/01/2017 à 13h07
Bah VR = 3D = 2 images envoyés, 1 pour chaque œil donc résolution de l’écran divisé par deux.
Le 05/01/2017 à 13h11
En effet, supprimer l’espace ne donnerait pas une image parfaite, mais tout ce que je dis c’est qu’il faut différencier résolution et espace entre les pixels, et les 2 doivent être “améliorés” pour la VR pour avoir une belle image.
Le 05/01/2017 à 13h12
Le 05/01/2017 à 13h15
Pas compris si ce HDMI 2.1 introduira la compression des images ou pas ?
Si ma mémoire est bonne, la compression avait été annoncée pour le futur de HDMI car la bande passante devenait difficile à augmenter au delà du HDMI 2.0….
Aussi où en est-on chez Intel avec le support complet du HDMI 2.0 par ses IGP intégrés sans puce additionnelle ?
Car vu le retard pris par Intel sur le HDMI 2.0 qui est supporté depuis des années par les TVs, amplis, etc…, c’est pas demain la veille que l’on aura le HDMI 2.1 sur nos IGP….
Le 05/01/2017 à 13h37
Le 05/01/2017 à 14h27
Le 05/01/2017 à 14h41
Le 05/01/2017 à 14h43
Le 05/01/2017 à 14h46
Le 05/01/2017 à 14h47
Le 05/01/2017 à 14h49
Le 05/01/2017 à 14h54
Le 05/01/2017 à 14h57
Le 05/01/2017 à 15h03
Le 05/01/2017 à 15h06
Le 05/01/2017 à 16h07