Connexion
Abonnez-vous

HDMI 2.1 : 48 Gb/s, 8K à 60 Hz, Dynamic HDR et fréquence variable (VRR)

Le HDMI enfin adapté aux joueurs ?

HDMI 2.1 : 48 Gb/s, 8K à 60 Hz, Dynamic HDR et fréquence variable (VRR)

Le 05 janvier 2017 à 10h20

HDMI 2.1 est officialisé et marque une grosse évolution par rapport à HDMI 2.0. La bande passante passe à 48 Gb/s, le Dynamic HDR et l'eARC sont de la partie, tout comme le mode VRR (Variable Refresh Rate) pour les joueurs.

À l'occasion du CES de Las Vegas, le HDMI Forum organisait une conférence de presse afin de dévoiler les grandes lignes de la norme HDMI 2.1, qui est bien évidemment rétrocompatible avec les anciennes versions. Celle-ci apporte plusieurs nouveautés, dont une bande-passante plus que doublée puisqu'elle passe de 18 à 48 Gb/s. 

De la 8K à 60 Hz ou de la 4K à 120 Hz, avec Dynamic HDR

Alors que HDMI 2.0 permet de faire passer de la 4K à 60 Hz, HDMI 2.1 repousses cette limite avec, par exemple, de la 8K à 60 Hz ou de la 4K à 120 Hz. Le groupe précise qu'il ne s'agit que d'exemples et que vous êtes libre de faire passer la définition et le taux de rafraichissement que vous voulez, du moment que le débit ne dépasse pas les 48 Gb/s bien évidemment.

Le HDMI 2.1 n'est pas qu'une augmentation de la bande-passante, il propose également de nouvelles fonctionnalités. Il est ainsi question du Dynamic HDR qui permet de spécifier image par image, ou bien scène par scène, les informations liées aux couleurs, alors que le HDR classique ne permet de le faire que sur la vidéo en entier.

HDMI 2.1HDMI 2.1

Un mode VRR pour les joueurs, des améliorations pour la partie audio

Il est ensuite question du Game Mode VRR (Variable Refresh Rate) qui, comme son nom l'indique, permet d'afficher les images provenant de la carte graphique au moment où elles sont disponibles. Le représentant nous confirme qu'il s'agit d'une solution équivalente à ce que propose AMD avec FreeSync et NVIDIA avec G-Sync, mais qu'elle est désormais intégrée dans la norme HDMI 2.1, tout comme elle fait déjà partie des dernières versions du DisplayPort.

Reste à voir si l'un ou l'autre des fabricants de GPU exploiteront ce mode, AMD proposant déjà une compatibilité de FreeSync avec le HDMI via une solution maison pour l'instant. Le Forum HDMI n'avait pas de réponse à nous apporter pour le moment, laissant les constructeurs s'exprimer.

Enfin, côté audio, il est question de la prise en charge d'eARC (enhanced Audio Return Channel), mais sans vraiment plus de détails sur les nouveautés apportées. Il est simplement question de « fonctions avancées » pour le contrôle du signal audio et d'une détection automatique des périphériques par la télévision.

HDMI 2.1HDMI 2.1

Un nouveau câble pour profiter du HDMI 2.1 ? Quid des anciens ? 

Dernier changement, et pas des moindre, il faudra un nouveau câble, simplement baptisé « 48G Cable » pour profiter pleinement de HDMI 2.1, tout du moins en théorie. Durant la conférence de presse, les intervenants ne laissaient pas planer le doute : un nouveau câble est nécessaire afin de profiter pleinement de toutes les fonctionnalités de HDMI 2.1.

Même son de cloche dans la FAQ. À la question « est-ce que la 8K à 60 Hz ou la 4K à 120 Hz nécessite un nouveau câble ? », la réponse est « oui, un nouveau câble est requis ». Néanmoins, quelques lignes plus loin, la situation se complique. Lorsqu'il s'agit de savoir si le 48G Cable est nécessaire pour profiter des spécifications du HDMI 2.1, le HDMI Forum explique qu'il s'agit du « meilleur moyen » d'y arriver, rien de plus.

Enfin, il est précisé que les câbles HDMI High Speed actuels avec prise en charge d'Ethernet peuvent « prendre en charge certaines des nouvelles fonctionnalités ». Il sera donc intéressant de voir ce qu'il en est dans la pratique.

HDMI 2.1

Reste la question de la date de mise sur le marché. Les détails techniques de cette nouvelle norme seront disponibles pour les membres du HDMI Forum durant le second trimestre de l'année, il faudra donc certainement encore attendre avant de voir débarquer les premiers terminaux estampillés HDMI 2.1.

Enfin, le HDMI Forum nous précise qu'une mise à jour logicielle peut parfois suffire à passer de HDMI 2.0 à 2.1, mais que ce n'est pas systématique. Cela dépend de l'implémentation et du bon vouloir de chaque fabricant.

Commentaires (67)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







OlivierJ a écrit :



A ma connaissance, l’écran génère alternativement l’image pour chaque oeil, ce qui justifie les fréquences de rafraîchissement élevé puisqu’elle est divisée par 2 pour chaque oeil au final ; mais il n’y a pas de division de la résolution.







Si tu as l’intention de débattre au sujet des casques VR, je pense que tu devrais te renseigner un minimum sur la manière dont ils fonctionnent vraiment au lieu de te baser sur le fonctionnement nominal des écrans/TV 3D classique. Aucun des casques VR (en tout cas les plus connus) n’utilise le principe de la 3D active. Tu as 2 images complètes sur chaque partie de l’écran, une pour chaque oeil.



Concernant l’histoire des 4k par oeil du casque Pimax, tu devrais lire l’article plutôt que de faire des suppositions. Le terme “incorrect” est plutôt celui de “8K” (ce n’est pas de la 8K UHD), puisque le total de la définition est de 7680 x 2160, ce qui n’est pas le ratio attendu par de la “8K UHD” par exemple. Tu as cependant bien du 4K UHD par oeil, sur 2 écrans.

L’Oculus Rift et le Gear VR n’utilise qu’un seul écran (scindé en 2 (en colonne) pour afficher une image par oeil), mais le HTC Vive et le Pimax utilisent 2 écrans (un par oeil).



As-tu déjà mis la tête dans un casque VR (Gear VR, HTC Vive, Oculus Rift, PSVR?) au moins une fois ? Je pense que si tu l’avais fait, tu ne remettrais pas en cause les besoins tant en résolution qu’en taux de rafraichissement également, qui sont clairement différents des besoins pour un écran classique.


votre avatar

High Video ResolutionsQ: Will 8K@60 or 4K@120 require a new cable or cable connector?A: Yes a new cable is requiredQ: What are the support resolutions and frame rates?A:•4K50/60•4K100/120•5K50/60•5K100/120•8K50/60•8K100/120•10K50/60•10K100/120Q: What colorimetry is supported?A: HDMI 2.1 Specification supports the latest color spaces including BT.2020 with 10, 12, and 16 bits per color component.



48G CableQ: Is this cable required for delivering HDMI 2.1 Specification features?A: The cable is the best way to ensure the high-bandwidth dependent features are delivered including the enhanced video and audio performance, and accounting for the new EMI characteristicsQ: Will existing HDMI High Speed cables deliver the HDMI 2.1 features also?A: While existing HDMI High Speed Cables with Ethernet can deliver some of the new features, the new cable is the best way to connect HDMI 2.1 enabled devices to ensure delivery of all the features.Q: What connectors does this cable use?A: It is compatible with HDMI connectors Types A, C and D.Q: Does the cable have an Ethernet channel?A: Yes it supports the HDMI Ethernet Channel.Q: Can this new cable work with existing HDMI devices?A: The cable is backwards compatible and can be used with existing HDMI devices for the delivery of legacy HDMI features.

votre avatar







chr_yokohama a écrit :



Tu peux très bien implémenter une compression sans pertes (lossless) entre la CG/l’IGP et le moniteur/la TV afin de diviser par 3 la bande passante nécessaire.





Cette division par 3 me paraît peu probable. Il est à mon avis plus simple d’augmenter les bandes passantes, de toutes façons elle est pour l’instant plus que suffisante vu les résolutions pratiques.[/quote]







Groove a écrit :



Tu as 2 images complètes sur chaque partie de l’écran, une pour chaque oeil.[…]

Concernant l’histoire des 4k par oeil du casque Pimax, tu devrais lire l’article plutôt que de faire des suppositions. Le terme “incorrect” est plutôt celui de “8K” (ce n’est pas de la 8K UHD), puisque le total de la définition est de 7680 x 2160, ce qui n’est pas le ratio attendu par de la “8K UHD” par exemple. Tu as cependant bien du 4K UHD par oeil, sur 2 écrans.[…]





Merci pour les précisions, qui ne sont pas superflues (je dis ça pour d’autres).







Groove a écrit :



As-tu déjà mis la tête dans un casque VR (Gear VR, HTC Vive, Oculus Rift, PSVR?) au moins une fois ? Je pense que si tu l’avais fait, tu ne remettrais pas en cause les besoins tant en résolution qu’en taux de rafraichissement également, qui sont clairement différents des besoins pour un écran classique.





Non, pas mis depuis longtemps. Le besoin en résolution, apparemment il en faut à cause de l’immersion, mais en rafraîchissement, ça dépend de la technique 3D utilisée.


votre avatar







OlivierJ a écrit :



Non, pas mis depuis longtemps. Le besoin en résolution, apparemment il en faut à cause de l’immersion, mais en rafraîchissement, ça dépend de la technique 3D utilisée.







Justement non, contrairement à un écran classique, où juste avoir l’illusion de fluidité est en général suffisant, les besoins pour un casque VR sont différents et plus critiques pour que l’expérience soit un succès, surtout pour le jeu vidéo.



Si 48hz (d’après toi) semble suffisant pour avoir une perception de fluidité sur un écran et dans un film, ça sera clairement insuffisant dans un casque VR et pour du jeu vidéo, où tu percevras le “hashage” de l’animation lorsque tu bouges la tête de manière brusque. D’ailleurs pas besoin de casque VR pour ça, tu peux déjà le voir dans des jeux vidéos en tournant la caméra brusquement. C’est différent d’un film où les mouvements de caméra ne sont pas aussi brusques et plus contrôlés.

Bien sûr, on peut rajouter des effets de flous de mouvement pour réduire l’effet perçu (ce que certains jeux font), mais ce n’est pas pareil que d’avoir un taux de rafraichissement plus élevé.



Dans le monde des casques VR, 90hz est d’ailleurs considéré comme le minimum syndical, pas comme le taux le plus optimal.

Le PSVR permet de monter à 120hz, mais dans son cas, aucun jeu aux graphismes complexes ne tourne (et probablement jamais ne tourneront) nativement à cette fréquence, vu le hardware bien trop faiblard de la PS4 classique (même pas sûr que la Pro puisse atteindre un tel taux de rafraichissement sur des jeux graphiquements complexes) et les frames “manquantes” sont interpolées (reprojection/time warping).


votre avatar







Groove a écrit :



Justement non, contrairement à un écran classique, où juste avoir l’illusion de fluidité est en général suffisant, les besoins pour un casque VR sont différents et plus critiques pour que l’expérience soit un succès, surtout pour le jeu vidéo.



Si 48hz (d’après toi) semble suffisant pour avoir une perception de fluidité sur un écran et dans un film, ça sera clairement insuffisant dans un casque VR et pour du jeu vidéo, où tu percevras le “hashage” de l’animation lorsque tu bouges la tête de manière brusque. D’ailleurs pas besoin de casque VR pour ça, tu peux déjà le voir dans des jeux vidéos en tournant la caméra brusquement. C’est différent d’un film où les mouvements de caméra ne sont pas aussi brusques et plus contrôlés.

Bien sûr, on peut rajouter des effets de flous de mouvement pour réduire l’effet perçu (ce que certains jeux font), mais ce n’est pas pareil que d’avoir un taux de rafraichissement plus élevé.



Dans le monde des casques VR, 90hz est d’ailleurs considéré comme le minimum syndical, pas comme le taux le plus optimal.

Le PSVR permet de monter à 120hz, mais dans son cas, aucun jeu aux graphismes complexes ne tourne (et probablement jamais ne tourneront) nativement à cette fréquence, vu le hardware bien trop faiblard de la PS4 classique (même pas sûr que la Pro puisse atteindre un tel taux de rafraichissement sur des jeux graphiquements complexes) et les frames “manquantes” sont interpolées (reprojection/time warping).







En même temps, si les grands éditeurs cessaient de pondre des jeux commerciaux méga léchés graphiquement mais avec une profondeur de jeu pensée pour le QI d’une huître, ça ne ferait de mal à personne.









votre avatar

J’arrive un peu en retard, mais par rapport au DP 1.4 il n’y a que le VRR en plus sur l’HDMI si je m’abuse?



8K 60Hz Ok *24bit compression

4k 120Hz Ok

DHDR Ok

VRR ?

votre avatar

C’est de la mauvaise foi, j’ai un écran 144 hz et des 60 hz côte à côte, il suffit de passer un jeu ou une fenêtre même d’un écran à l’autre pour voir le gouffre d’image par seconde perdue.

 Je pense que tu n’as jamais eu l’occasion de comparé, et si c’est le cas, alors je veux bien croire certaines personnes ne peuvent distinguer la différence, mais étrangement il a yen aucunes dans mon entourage…

votre avatar







Goodbye a écrit :



C’est de la mauvaise foi, j’ai un écran 144 hz et des 60 hz côte à côte, il suffit de passer un jeu ou une fenêtre même d’un écran à l’autre pour voir le gouffre d’image par seconde perdue.





C’est tout à fait improbable, et aucune mauvaise foi. Tu devrais creuser sur la signification de ces supposés 144 Hz, et du nombre réels d’images affichées dessus (idem pour le 60 Hz). Il faudrait une caméra rapide pour analyser l’affichage.

NB : entre 25 et 50 Hz, on voit en effet la différence, je l’avais constaté en faisant des tests sur mon Amiga dans les années 80, avec des cubes en rotation.

Il faut comprendre qu’avec un écran 60 Hz, si ton jeu est capable de générer 50 images par seconde, tu peux avoir de légères saccades puisque certaines images sont affichées 2 fois de suite, et d’autre une seule fois. Ça peut changer l’impression de fluidité. D’ailleurs quelqu’un ici qui a un écran g-sync a bien dit qu’il avait de la fluidité avec moins de 50 images par seconde, ce qui est possible vu que les images peuvent être affichées en 40 FPS avec le même intervalle de temps entre images.

Si ton jeu est capable de générer des images à pile 60 FPS avec un déplacement linéaire entre images, la fluidité est déjà particulièrement bonne et la différence avec un taux plus élevé est difficile à percevoir. Ça dépend aussi de l’électronique de l’écran et du répondant du jeu.


votre avatar

Vu l’illustration, le câble ne pourra pas passer partout <img data-src=" />

votre avatar



Enfin, côté audio, il est question de la prise en charge d’eARC

(enhanced Audio Return Channel), mais sans vraiment plus de détails sur

les nouveautés apportées. Il est simplement question de « fonctions avancées » pour le contrôle du signal audio et d’une détection automatique des périphériques par la télévision.



Pour la détection automatique des périphériques, les TV détectent déjà automatiquement l’ampli, je vois mal ce qu’on peut faire de plus. Peut-être une prise en charge des formats audio lossless par le canal de retour audio ?





Enfin, il est précisé que les câbles HDMI High Speed actuels avec prise en charge d’Ethernet peuvent&nbsp;« prendre en charge certaines des nouvelles fonctionnalités ».



Prise en charge d’Ethernet qui n’a absolument jamais été implémentée par aucun fabricant… <img data-src=" /> Ça aurait pourtant réduit le fatras de câbles avec une TV ou un ampli jouant le rôle de switch Ethernet !

votre avatar



Reste à voir si l’un ou l’autre des fabricants de GPU exploiteront ce mode, AMD proposant déjà une compatibilité de FreeSync avec l’HDMI via une solution maison pour le moment.



Pour Nvidia je ne le vois malheureusement pas du tout l’exploiter, ça serait mettre un terme à son G-Sync et sa licence qui coûte bonbon.

votre avatar

De la 8K et à 60 Hz, c’est quand même de la belle masturbation.

Sur quel écran pourra-t-on voir la différence entre de la 4K (de la vraie 4K issue d’une source pas trop compressée) et plus ? Chez soi ça me paraît très douteux, et par ailleurs avec 4K on est déjà au niveau d’une très belle image de cinéma.

votre avatar

Donc la connectique reste la même mais le câble a une différente “qualité” ? Un peu comme les catégories pour le cablage réseau ?

votre avatar

Pour la VR où tu as 4K dans chaque œil comme sur le casque Pimax d’hier ?

votre avatar

Bon ca me sera peut être utile dans 10 ans… car du contenu en 8K et surtout un moyen de l’afficher abordable… ce n’est pas pour demain

On commence à peine à avoir du FULL HD de qualité chez les opérateurs, alors la 4K en surtout la 8K… on va attendre

votre avatar







CounterFragger a écrit :



Prise en charge d’Ethernet qui n’a absolument jamais été implémentée par aucun fabricant… <img data-src=" /> Ça aurait pourtant réduit le fatras de câbles avec une TV ou un ampli jouant le rôle de switch Ethernet !







Je pense qu’aucun constructeur de matériel Audio ou Video n’a envie de s’emmerder avec les problématiques de switching réseau. Même si ça serait bien plus “simplet” dans ce contexte, ça reste quand même un métier à part…

Et d’un autre coté, je suis pas sur d’avoir envie qu’une partie de mon réseau maison soit dépendant du niveau de sécurité absolument dégueulasse des constructeurs Hi-Fi… C’est un peu comme si on proposait de laisser les fabricants d’imprimantes gérer le firewalling d’un LAN avec leurs bouses… erk…


votre avatar







Soltek a écrit :



Pour la VR où tu as 4K dans chaque œil comme sur le casque Pimax d’hier ?





A ce moment-là (pas lu l’article), il faut 4K en 48 ou 60 Hz en effet (48=2x24 Hz si on est comme au cinéma, 25 Hz étant la télé européenne et le 30 Hz étant la télé américaine), du fait des 2 images simultanées. Et ça, le HDMI 2.0 le fait déjà.


votre avatar

perso pour jouer je veux du 60hz … donc le 120hz en 4K est intéressant et pas fait par le 2.0 si?

Actuellement le rafraîchissement des casque c’est 90hz…

Mais bon c’est toujours le même débat, avant avec le 1080p on disait la 2K puis la 4K ca sert a rien on verra pas la dif, maintenant c’est avec la 8K (perso je suis encore en 1080 et je vois pas le besoin d’avoir plus… mais pourquoi ne pas apprécié l’avancé technologique?)

votre avatar







eres a écrit :



On commence à peine à avoir du FULL HD de qualité chez les opérateurs, alors la 4K en surtout la 8K… on va attendre





Bien d’accord, déjà ayons du HD de qualité au quotidien (celle de la TNT était supérieure à celle via les box, avant paradoxalement qu’on passe au tout HD, car il n’y avait que 3 chaînes par porteuse, contre 5 ou 6 actuellement), et ensuite de la 4K de qualité (c’est à dire pas trop compressée). On a le temps, et dépasser une vraie 4K me semble aussi inutile que peu perceptible (c’est un peu comme vouloir dépasser le CD, qui dépasse déjà les capacités de l’oreille humaine).


votre avatar

Je n’ai pas vraiment lu la news car la VR ne m’intéresse pas mais il parle bien d’écran 8K en 7680x2160.

votre avatar







latlanh a écrit :



perso pour jouer je veux du 60hz … donc le 120hz en 4K est intéressant et pas fait par le 2.0 si?

Actuellement le rafraîchissement des casque c’est 90hz…





Je ne pense pas que tu aies besoin de 60 Hz, des fréquences entre 30 et 60 Hz sont suffisantes, je crois que pour beaucoup, on ne distingue plus vraiment la différence au-dessus d’environ 48 Hz.

(pour les casques, je ne sais pas comment ils mesurent, c’est 90 Hz par oeil, avec 90 images différentes par seconde ? Il faut faire attention à ce que ça recouvre, à l’instar d’une télé dite 100 Hz ou 200 Hz qui évidemment n’affiche pas 200 images différentes par seconde - ce qui ne servirait à rien de toutes façons)


votre avatar







Soltek a écrit :



Je n’ai pas vraiment lu la news car la VR ne m’intéresse pas mais il parle bien d’écran 8K en 7680x2160.





Ça reste du pur marketing, ça renchérit l’écran inutilement et toute la chaîne électronique qui va autour.

(idem pour les résolutions délirantes sur les mobiles et les compacts, et dans certains domaines audio aussi)


votre avatar

Tiens ca faisait longtemps! :http://hitek.fr/actualite/frame-rate-jeux-videos-oeil_6959



Voila, l’idee de la perception limité des image par l’oeil est un faux débat.

Je suis en 144hz sur mon écran de jeu et je perçois cette plus grande fluidité/suppression de l’effet de balayage.

Alors avec un ecran a 2 cm de mes yeux j’imagine assez bien que le rafraîchissement + la définition est importante.

votre avatar







CounterFragger a écrit :



Prise en charge d’Ethernet qui n’a absolument jamais été implémentée par aucun fabricant… <img data-src=" /> Ça aurait pourtant réduit le fatras de câbles avec une TV ou un ampli jouant le rôle de switch Ethernet !



Je ne saurais te les citer mais certains périphériques se servent de ce canal pour communiquer des informations type EPG et consorts. J’avais vu un duo d’équipements sympa là dessus mais pas moyen de me souvenir les noms :(


votre avatar

Bah du 8K sur un écran PC que tu as sur ton bureau ça sert peut-être à rien (je demande à voir quand même <img data-src=" />) mais pour des écrans que tu as collés aux rétines je ne pense pas que se soit du “pur marketing”.

En tout cas dire ça sans les avoir eu sur le bout du nez c’est… bête.

votre avatar

Je ne sais pas vous, mais je commence à saturer avec ce CES. Depuis quand cet événement est important? Il s’agit de simples annonces sur des produits non finalisés. Dans 90% des cas on ne connaît pas le prix ni la disponibilité. Pire entre l’annonce et la mise à disposition du produit il se peut qu’il change radicalement. Enfin pour une personne un tant soit peu intéressée, elle attendra obligatoirement les premiers retours clients avant d’acheter quoique ce soit et non les CR laudatifs qui pullulent actuellement

votre avatar







latlanh a écrit :



Tiens ca faisait longtemps! :http://hitek.fr/actualite/frame-rate-jeux-videos-oeil_6959

Voila, l’idee de la perception limité des image par l’oeil est un faux débat.

Je suis en 144hz sur mon écran de jeu et je perçois cette plus grande fluidité/suppression de l’effet de balayage.





Plusieurs choses.

D’abord l’oeil a une perception limitée, que ce soit en définition (liée aux cellules de la rétine) comme en vitesse (du fait de la persistance rétinienne en particulier, mais pas seulement, du fait des capacités des neurones qui sont associées à la rétine et au cerveau aussi).

Ensuite, l’article le dit bien : “il faut au minimum 50 fps pour qu’il soit vu comme fluide.”, ce qui rejoint les 48 (on n’est pas à 2 près) que j’ai cités. L’article ajoute une phrase un peu auto-contradictoire vuq qu’au final passé les 60 fps c’est difficile de voir une différence : “jouer à 120 fps sera de toute façon mieux que 60 fps même si la différence sera infime”.

Tu n’as vraiment pas besoin de 144 Hz (qui recouvre quoi au fait ?) pour ça, d’ailleurs le problème a changé depuis les écrans cathodiques où un balayage inférieur à 50-60 Hz se percevait.



Enfin, à un moment l’article raconte n’importe quoi : “pour aller encore plus loin, certains flashs d’appareils photos ne durent que 1/2000ème de seconde et pourtant on les voit. Il faudrait donc, pour retranscrire parfaitement la réalité dans les jeux vidéo, plus de 2000 fps” : on peut même distinguer un flash qui dure moins que ça (le mien est un TTL qui éclaire entre 1/50000e et 1/1000e selon la luminosité requise), c’est justement la persistence rétinienne. Et justement on ne distingue pas plusieurs flash espacés de quelques millisecondes (ce que font certains flashs de pro).

Pareil pour l’histoire des pilotes qui ont aperçu quelque chose pendant moins de 1/100e de seconde. Ça n’a pas à voir avec la perception des FPS dans un jeu.







latlanh a écrit :



Alors avec un ecran a 2 cm de mes yeux j’imagine assez bien que le rafraîchissement + la définition est importante.





Et pourquoi donc ?







Soltek a écrit :



Bah du 8K sur un écran PC que tu as sur ton bureau ça sert peut-être à rien (je demande à voir quand même <img data-src=" />) mais pour des écrans que tu as collés aux rétines je ne pense pas que se soit du “pur marketing”.





Ben ça change quoi de l’avoir collé aux rétines ?

De toutes façons, l’oeil n’a sa résolution maximale que dans une zone assez centrale de la rétine.


votre avatar







OlivierJ a écrit :



Ben ça change quoi de l’avoir collé aux rétines ?

De toutes façons, l’oeil n’a sa résolution maximale que dans une zone assez centrale de la rétine.





Ca change que plus tu te rapproches d’un écran, plus tu as tendance à discerner les pixels, dans le jargon ils appellent ça le screen door-effect (l’effet de grille).

Actuellement les écrans dans les casques de VR tournent entre le full HD et la 2K ce qui est insuffisant pour éviter cet effet.

&nbsp;


votre avatar

J’sais pas colle toi un tél en 480p à l’œil et fait la même chose avec un 1080p si tu n’arrives pas à voir la différence sur le papier.

votre avatar

Il suffirait d’intégrer un chip de fabricant tiers pour gérer le switching réseau. Une TV, c’est comme un PC, ce n’est rien de plus que de l’assemblage de composants de fabricants différents (et même la dalle !) regroupés dans un boîtier avec le logo de la marque, alors un de plus ou un de moins…



Quant à la sécurité, les switches grand public premier prix n’en font pas plus, d’ailleurs, hors monde professionnel, ce rôle est plutôt laissé au routeur.

votre avatar

Manque plus que le KVM HDMI 2.1 Dual Screen pour contrôler, allez, juste 2PC : 3.500€ <img data-src=" />

(le modèle 4P sera à 15.000€… <img data-src=" />)



<img data-src=" />

votre avatar

Si je peux mater mon porno en 8k ça me va.

votre avatar







Slash a écrit :



Ca change que plus tu te rapproches d’un écran, plus tu as tendance à discerner les pixels, dans le jargon ils appellent ça le screen door-effect (l’effet de grille).

Actuellement les écrans dans les casques de VR tournent entre le full HD et la 2K ce qui est insuffisant pour éviter cet effet.





Pour la HD/2K on est d’accord, c’est pour ça que je mentionne la 4K comme étant largement suffisante (que ce soit pour une télévision à distance raisonnable comme pour un casque).


votre avatar







OlivierJ a écrit :



De la 8K et à 60 Hz, c’est quand même de la belle masturbation.

Sur quel écran pourra-t-on voir la différence entre de la 4K (de la vraie 4K issue d’une source pas trop compressée) et plus ? Chez soi ça me paraît très douteux, et par ailleurs avec 4K on est déjà au niveau d’une très belle image de cinéma.







On avait exactement les mêmes commentaires quand on est passé du SD au HD, puis encore les mêmes quand on est passé du HD au fhd, idem pour la 4k, etc…



Ne t’en déplaise l’oeil et le cerveau s’habituent, à tel point qu’il est impensable de revenir à du 480p sur n’importe quel écran.



Bref, si ça ne te convient pas, tu peux toujours revenir aux écran CRT tout seul dans ton coin. Pour ma part, j’accueillerai cette évolution sans rechigner et me réjouis de ces appareils dont la définition permet de faire moins mal aux yeux


votre avatar







Soltek a écrit :



J’sais pas colle toi un tél en 480p à l’œil et fait la même chose avec un 1080p si tu n’arrives pas à voir la différence sur le papier.





Ah, parce que tu regarde ton téléphone l’oeil collé dessus ?



Je rappelle qu’on parle de regarder des images animées (cinéma ou jeu) en bonne qualité ; et pour ça, je maintiens, au vu des performances du cinéma classique, que 4K est déjà une très belle qualité.


votre avatar







js2082 a écrit :



On avait exactement les mêmes commentaires quand on est passé du SD au HD, puis encore les mêmes quand on est passé du HD au fhd, idem pour la 4k, etc…





Sophisme de l’homme de paille…



Je ne sais pas de qui, mais certainement pas mes commentaires. De toutes façons tu inventes, vu que le passage de la télé SD à HD saute au yeux (on fait plus que doubler la qualité d’ailleurs), et qu’on n’attend pas les limites de perception humaine en conditions usuelles de visualisation. Je n’ai vu personne me dire qu’il n’était pas ravi quand il a acheté sa première télé HD (et pour ma part je suis passé tardivement au HD côté télé, j’ai beaucoup aimé).



Quant à moi, quand la 4K se sera démocratisée, au sens où on aura la majorité des sources disponible en du vrai 4K (et pas du truc trop compressé, juste pour avoir le tampon “4K”), je serai content de m’acheter une télé 4K. Après, augmenter la résolution sera difficilement discernable.







js2082 a écrit :



Ne t’en déplaise l’oeil et le cerveau s’habituent, à tel point qu’il est impensable de revenir à du 480p sur n’importe quel écran. Bref, si ça ne te convient pas, tu peux toujours revenir aux écran CRT





N’importe quoi, aucun rapport avec mes propos, tu inventes encore <img data-src=" /> .







js2082 a écrit :



Pour ma part, j’accueillerai cette évolution sans rechigner et me réjouis de ces appareils dont la définition permet de faire moins mal aux yeux





Ruine-toi pour de l’inutile 8K si tu veux, en attendant achète-toi un écran décent, car un bon écran HD ne fait pas mal aux yeux (c’est quoi encore ce pipeau ?).


votre avatar

J’espère que la 4K résoudra le SDE. C’est déjà un défi technologique en soit de miniaturiser ça dans les HMD.

Je possède un Rift CV1, et là, ça dépend des gens; certains ne voient pas le SDE, moi je vois que ça. Après, l’immersion est là, et au bout d’un moment tu l’oublies un peu.

&nbsp;Il y a d’autres tricks aussi comme augmenter le chaperone, le pixel per pixel overrride, le supersampling, mais au final la limite techno fait que avec les lentilles juste devant les yeux,&nbsp; en 1200p le SDE saute aux yeux. Ca se voit vraiment sur le texte, on distingue bien chaque pixel qui compose les lettres.

J’espère vraiment que du 4k dans le HMD résoudra ça, et pas attendre le 48k <img data-src=" />

votre avatar







Zekk a écrit :



J’espère que la 4K résoudra le SDE. C’est déjà un défi technologique en soit de miniaturiser ça dans les HMD.

J’espère vraiment que du 4k dans le HMD résoudra ça, et pas attendre le 48k <img data-src=" />





Note que mon propos initial est que la 4K c’est super, mais que monter à plus ne sert quasiment à rien. Dans le cas des casques, il est vrai que selon la façon dont c’est affiché pour l’oeil, ça peut demander un peu plus puisque pour l’immersion on doit avoir plus le nez dessus. Après, j’ai tendance à penser que les casques ça restera minoritaire (je peux me tromper) et que les écrans (ou les projecteurs) resteront prépondérants, et c’est surtout à ça que je pense.


votre avatar

Et c’est un double faux débat car en plus de dépendre de tout un tas de facteurs physiologiques (cités dans l’article), cela dépend également de divers aspects technologiques employés.



Exemple : je viens de m’acheter un écran G-Sync, et dans certains jeux qui mettent quand même ma nouvelle CG un peu à genoux, j’ai des scènes/portions de jeu où je n’ai que 26 ou 28 FPS, et pourtant c’est d’une fluidité remarquable. Alors qu’avec mon ancien écran 120Hz, la fluidité ne commençait pour moi qu’à partir de 45 ou 50 FPS. Tout ça grâce à la synchronisation intelligente entre le GPU et l’écran qui affiche les images.

votre avatar

Il y a un marché, ça peut percer.



Je te conseille vraiment d’essayer un rift CV1 ou un Vive, c’est très bluffant, l’immersion est bien là même avec ce SDE de première gen. Tu es vraiment englobé dans cet environnement virtuel à 360°. Il n’y a pas que les jeux, j’ai une appli d’astronomie, quand tu la lances, tu es englobé par la carte stellaire qui se déploie tout autours de toi, c’est le pied total.

votre avatar

Bah on parlait VR il y a 2 minutes donc les yeux collé à l’écran oui… Tu le fais exprès en fait non ?

votre avatar







Nozalys a écrit :



Et c’est un double faux débat car en plus de dépendre de tout un tas de facteurs physiologiques (cités dans l’article), cela dépend également de divers aspects technologiques employés.



Exemple : je viens de m’acheter un écran G-Sync, et dans certains jeux qui mettent quand même ma nouvelle CG un peu à genoux, j’ai des scènes/portions de jeu où je n’ai que 26 ou 28 FPS, et pourtant c’est d’une fluidité remarquable. Alors qu’avec mon ancien écran 120Hz, la fluidité ne commençait pour moi qu’à partir de 45 ou 50 FPS. Tout ça grâce à la synchronisation intelligente entre le GPU et l’écran qui affiche les images.





Je suppose que la fluidité à 26-28 FPS doit être aidée par un léger flou de bougé, en plus du g-sync qui permet d’avoir une durée strictement nécessaire entre 2 images.



Avec un écran supposé afficher 120 images par seconde (ton ancien), j’imagine qu’au niveau de 45 FPS on a des durées variables selon les “frames” justement, parfois sur 2 images successives, parfois sur 3 (celles à 120 Hz) ; et l’oeil/cerveau le perçoit un peu.



Je ne suis pas joueur, mais si la fluidité était très importante pour moi, je mettrais des réglages de jeu qui font que ça ne descend jamais en-dessous de la fréquence native de l’écran (quand il n’est pas g-sync), quitte à perdre détails.


votre avatar

Sauf que tu parlais de 480p ou un peu plus, là où moi je parle de résolutions qui dépassent les 4K et qui donc flirtent avec l’excellence.

votre avatar

Attention quand même ce qu’on nomme le “screen door effect” est plus lié à la taille de la zone entre les pixel que la résolution elle même : affichage d’une ligne noire entre les pixels. Si il n’y avait pas d’espace entre les pixel tu n’aurais pas de ligne noire et pas “d’effet de grille”.



Maintenant augmenter la résolution a pour effet “mécanique” de réduire cet effet, mais si on avait une technologie qui n’a pas autant d’espace entre les pixels, tu n’aurais pas d’effet de grille.


votre avatar

Le casque fait 8K pour afficher 4K à chaque œil donc ça ne dépasse finalement pas le 4K.

votre avatar

Pour le câble, j’imagine que ce sera comme pour le réseau.



Il y a des câbles certifiés pour un certain débit. On peut avoir un débit plus élevé que la norme, mais ce n’est pas garanti.

votre avatar

C’est drole, tu te contredis tout seul.



Pour info, oui, l’oeil et le cerveau s’habituent , donc même si tu penses ne pas voir de différence aujourd’hui, t’inquiètes que tu la verras au bout de quelques temps.



Quant à l’inutile évolution, elle a pour conséquence de faire baisser le tarif de l’ancienne inutile évolution devenue tout à coup essentielle.



Bref,si t’es intelligent, tu l’ acceptes et au final tu seras gagnant.



C’est le principe même de notre cerveau et de nos sens qui évoluent en fonction de leur utilisation.

votre avatar







atomusk a écrit :



Attention quand même ce qu’on nomme le “screen door effect” est plus lié à la taille de la zone entre les pixel que la résolution elle même : affichage d’une ligne noire entre les pixels. Si il n’y avait pas d’espace entre les pixel tu n’aurais pas de ligne noire et pas “d’effet de grille”.



Maintenant augmenter la résolution a pour effet “mécanique” de réduire cet effet, mais si on avait une technologie qui n’a pas autant d’espace entre les pixels, tu n’aurais pas d’effet de grille.





Bonne remarque sur la question de la ligne noire, cependant je ne suis pas parfaitement certain que la suppression totale de cette ligne noire (si on y arrive un jour) empêcherait de distinguer l’effet pixel, quand la résolution n’est pas assez élevée.







Soltek a écrit :



Le casque fait 8K pour afficher 4K à chaque œil donc ça ne dépasse finalement pas le 4K.





Comment ça il fait 8K pour afficher 4K à chaque oeil ?


votre avatar







js2082 a écrit :



Pour info, oui, l’oeil et le cerveau s’habituent , donc même si tu penses ne pas voir de différence aujourd’hui, t’inquiètes que tu la verras au bout de quelques temps.





S’habituent à quoi ?

D’ailleurs si l’oeil s’habitue à quelque chose, il peut encore moins voir de différence au bout d’un certain temps.







js2082 a écrit :



C’est le principe même de notre cerveau et de nos sens qui évoluent en fonction de leur utilisation.





Je ne sais pas à quoi tu penses, en tous cas mon oeil n’a pas bougé depuis que je suis passé de la SD à la HD.


votre avatar

En effet, tu peux réduire la qualité de l’image en réduisant les détails pour conserver autant que faire se peut la fréquence verticale native de l’écran. Mais malgré tout, 60 ou 120 images par seconde en Full HD, ça demande quand même pas mal de ressources, et toutes les cartes graphiques ne le peuvent pas. La mienne d’avant ne le pouvait pas même en qualité “médiocre” sur certains jeux. Elle était ancienne.



Dans mon cas je privilégie autant la qualité d’image que sa fluidité. En revanche je n’active jamais, au grand jamais les divers effets de flou cinétique (motion blur), flous de mise au point (focus) ni tout autre flou. Dans les jeux-vidéos, les pseudo-effets de flous me démontent systématiquement la rétine quand je tourne la tête.



En bref, je ne reviendrais pas sur un écran “normal” à savoir un écran qui ne synchronise pas sa fréquence de rafraichissement vertical sur ce que le GPU est capable de fournir. Qui plus est, le GPU n’a plus besoin de bosser à 100% constamment pour proposer 350 FPS inexploitables, il ne bosse que dans la plage comprise entre ce qu’il peut calculer et la fréquence max de l’écran. Cet atout permet clairement de réduire la consommation, la chaleur dégagée, et le bruit des ventilateurs qui refroidissent tout ça.



Pour moi c’est vraiment une avancée technologique géniale, et ça montre vraiment que déterminer la fluidité d’une scène en fonction du FPS est une erreur.

votre avatar

Tout à fait, c’est ce qui correspond au pitch sur un écran.

Cela dit, il y a une limite à ce que l’on peut faire dans ce domaine, le screen door effect sera je pense atténué en travaillant sur les deux aspects: pitch et résolution.

votre avatar

Bah VR = 3D = 2 images envoyés, 1 pour chaque œil donc résolution de l’écran divisé par deux.

votre avatar

En effet, supprimer l’espace ne donnerait pas une image parfaite, mais tout ce que je dis c’est qu’il faut différencier résolution et espace entre les pixels, et les 2 doivent être “améliorés” pour la VR pour avoir une belle image.


votre avatar







OlivierJ a écrit :



Comment ça il fait 8K pour afficher 4K à chaque oeil ?






Sur ces casques, tu n'as pas 2 écrans, tu as un écran et chaque lentille a un filtre pour te faire voir une ligne horizontal sur 2 ou une image sur 2, je ne sais plus exactement. Le même principe que pour la 3D passive.

votre avatar

Pas compris si ce HDMI 2.1 introduira la compression des images ou pas ?

&nbsp;

Si ma mémoire est bonne, la compression&nbsp;avait été annoncée &nbsp;pour le futur de HDMI car la bande passante devenait difficile à augmenter au delà du HDMI 2.0….



Aussi où en est-on chez Intel avec le support complet du HDMI 2.0 par ses IGP intégrés sans puce additionnelle ?

Car vu le retard pris par Intel sur le HDMI 2.0 qui est supporté depuis des années par les TVs, amplis, etc…, c’est pas demain la veille que l’on aura le HDMI 2.1 sur nos IGP….

votre avatar







Soltek a écrit :



Bah VR = 3D = 2 images envoyés, 1 pour chaque œil donc résolution de l’écran divisé par deux.





A ma connaissance, l’écran génère alternativement l’image pour chaque oeil, ce qui justifie les fréquences de rafraîchissement élevé puisqu’elle est divisée par 2 pour chaque oeil au final ; mais il n’y a pas de division de la résolution.



NB : en supposant cette division, 8K ~= 8000x4000 (32 MP) et 4K ~= 4000x2000 (8 MP), donc si tu affiches 2 images à la fois sur un écran 8K (une ligne sur 2 ? une colonne sur 2), tu ne passes pas à 4 K mais à une résolution intermédiaire, correspondant à 16 MP.







Loeff a écrit :



Sur ces casques, tu n’as pas 2 écrans, tu as un écran et chaque lentille a un filtre pour te faire voir une ligne horizontal sur 2 ou une image sur 2, je ne sais plus exactement. Le même principe que pour la 3D passive.





Vu comme ça, ça ne divise pas tout à fait la résolution par 2 (cf juste au-dessus).







chr_yokohama a écrit :



Pas compris si ce HDMI 2.1 introduira la compression des images ou pas ?





L’image est compressée au départ (H264 ou autre), je vois mal l’image décodée par l’ordinateur être recompressée pour être transmise à l’écran (avec quel algorithme et quelle facteur de compression et puissance nécessaire ?).


votre avatar







js2082 a écrit :



On avait exactement les mêmes commentaires quand on est passé du SD au HD, puis encore les mêmes quand on est passé du HD au fhd, idem pour la 4k, etc…



Tu a dû être le seul à les voir pour le SD/HD et pour le HD/FHD…

Pour le 4k, sur un écran à moins d’avoir une très grande surface (&gt;50”) ou des lunettes-écrans, il n’y a pas vraiment d’intérêt, non.


votre avatar







OlivierJ a écrit :



Je ne pense pas que tu aies besoin de 60 Hz, des fréquences entre 30 et 60 Hz sont suffisantes, je crois que pour beaucoup, on ne distingue plus vraiment la différence au-dessus d’environ 48 Hz.

(pour les casques, je ne sais pas comment ils mesurent, c’est 90 Hz par oeil, avec 90 images différentes par seconde ? Il faut faire attention à ce que ça recouvre, à l’instar d’une télé dite 100 Hz ou 200 Hz qui évidemment n’affiche pas 200 images différentes par seconde - ce qui ne servirait à rien de toutes façons)





Bien sûr que si il y a 90 images différentes par secondes sur un casque VR. Cela na rien à voir avec les double balayage d’écran CRT. Concernant la fréquence, la différence est évidente jusqu’à 70 Hz. Le moindre travelling rapide est impossible à voir en 30 hz.


votre avatar







Patch a écrit :



Tu a dû être le seul à les voir pour le SD/HD et pour le HD/FHD…





<img data-src=" />







Patch a écrit :



Pour le 4k, sur un écran à moins d’avoir une très grande surface (&gt;50”) ou des lunettes-écrans, il n’y a pas vraiment d’intérêt, non.





Houlà, vu déjà que quand je dis que le 8K n’a probablement pas d’intérêt, je me fais reprendre, tu as du cran de t’en prendre au 4K <img data-src=" /> .


votre avatar







Nozalys a écrit :



En bref, je ne reviendrais pas sur un écran “normal” à savoir un écran qui ne synchronise pas sa fréquence de rafraichissement vertical sur ce que le GPU est capable de fournir. Qui plus est, le GPU n’a plus besoin de bosser à 100% constamment pour proposer 350 FPS inexploitables, il ne bosse que dans la plage comprise entre ce qu’il peut calculer et la fréquence max de l’écran. Cet atout permet clairement de réduire la consommation, la chaleur dégagée, et le bruit des ventilateurs qui refroidissent tout ça.







J’ai encore mon 26” 1610 en 1200p, c’est évident qu’avec la chauffe d’un SLI je n’imagine pas jouer sans vsync.



J’avais testé sur un jeu pas très récent, j’ai très vite remis la vsync. J’ai eu peur que ça prenne feu <img data-src=" />



De toute façon, sans l’activer j’ai mal aux yeux. Je préfère faire quelques concessions sur les réglages graphiques pour ne pas tomber en dessous de 60Hz.


votre avatar







OlivierJ a écrit :



Sophisme de l’homme de paille…



Je ne sais pas de qui, mais certainement pas mes commentaires. De toutes façons tu inventes, vu que le passage de la télé SD à HD saute au yeux (on fait plus que doubler la qualité d’ailleurs), et qu’on n’attend pas les limites de perception humaine en conditions usuelles de visualisation. Je n’ai vu personne me dire qu’il n’était pas ravi quand il a acheté sa première télé HD (et pour ma part je suis passé tardivement au HD côté télé, j’ai beaucoup aimé).



Quant à moi, quand la 4K se sera démocratisée, au sens où on aura la majorité des sources disponible en du vrai 4K (et pas du truc trop compressé, juste pour avoir le tampon “4K”), je serai content de m’acheter une télé 4K. Après, augmenter la résolution sera difficilement discernable.





Sauf si ils sortent des écran en 2.4m par 4.2m. Vu que cela ne passe pas les portes, cela sera des écrans souples, ce qui est imaginables avec les oleds. Mais comme tu dis, il faudrait déjà des sources 4K potables.


votre avatar







OlivierJ a écrit :



<img data-src=" />





Houlà, vu déjà que quand je dis que le 8K n’a probablement pas d’intérêt, je me fais reprendre, tu as du cran de t’en prendre au 4K <img data-src=" /> .



A moins d’avoir une excellent vision (et encore), et d’avoir un écran FHD et un 4k à côté, sur des dalles jusqu’à 50” on ne voit pas vraiment la diff (comme pour le FHD sur des écrans de 32” et moins : à moins d’avoir des écrans côte à côte, c’est quasi-identique). Par contre au-delà oui ca commence à être utile <img data-src=" />


votre avatar







Patch a écrit :



A moins d’avoir une excellent vision (et encore), et d’avoir un écran FHD et un 4k à côté, sur des dalles jusqu’à 50” on ne voit pas vraiment la diff (comme pour le FHD sur des écrans de 32” et moins : à moins d’avoir des écrans côte à côte, c’est quasi-identique). Par contre au-delà oui ca commence à être utile <img data-src=" />





Pour une tv, ok. Mais sur mon bureau, je vois très nettement les pixels du 26”, il faut que je m’éloigne un peu pour que ce ne soit pas désagréable <img data-src=" />



edith: j’ai une vue excellente <img data-src=" />


votre avatar







airfab a écrit :



Pour une tv, ok. Mais sur mon bureau, je vois très nettement les pixels du 26”, il faut que je m’éloigne un peu pour que ce ne soit pas désagréable <img data-src=" />



edith: j’ai une vue excellente <img data-src=" />



Les écrans PC c’est un peu à part, on a toujours tendance à être bien trop proches…


votre avatar







Patch a écrit :



Les écrans PC c’est un peu à part, on a toujours tendance à être bien trop proches…





En mode bureau, je m’éloigne dans mon fauteuil. Mais pour les jeux ou la simulation en particulier, il faut avoir l’écran très proche du volant.

Je pense que du 1440p serait suffisant jusqu’à 32”.


votre avatar







cyrano2 a écrit :



Sauf si ils sortent des écran en 2.4m par 4.2m. Vu que cela ne passe pas les portes, cela sera des écrans souples, ce qui est imaginables avec les oleds. Mais comme tu dis, il faudrait déjà des sources 4K potables.









Patch a écrit :



A moins d’avoir une excellent vision (et encore), et d’avoir un écran FHD et un 4k à côté, sur des dalles jusqu’à 50” on ne voit pas vraiment la diff (comme pour le FHD sur des écrans de 32” et moins : à moins d’avoir des écrans côte à côte, c’est quasi-identique). Par contre au-delà oui ca commence à être utile <img data-src=" />





Pour moi, la taille de l’écran n’a pas d’importance sur la perception 2K ou 4K (ou autre), car je pars du principe qu’on se met à une distance normale de l’écran, ni trop loin ni trop près.

Je sais que pour ma télé HD (2K) qui est à environ 2 m de moi, je vois la différence entre de la TNT moyenne, et du “rip” de bonne qualité de BluRay, et je pense que je verrai le passage en 4K, à taille d’écran égale.







airfab a écrit :



Pour une tv, ok. Mais sur mon bureau, je vois très nettement les pixels du 26”, il faut que je m’éloigne un peu pour que ce ne soit pas désagréable <img data-src=" />









Patch a écrit :



Les écrans PC c’est un peu à part, on a toujours tendance à être bien trop proches…





Il est vrai qu’on voit en général nos écrans d’ordinateur sous un angle plus large que nos téléviseurs, souvent trop lointains (surtout par rapport au cinéma). Sur mon bureau aussi je vois un peu les pixels de mon écran 24 pouces 1920x1200, quand je lis du texte (un peu moins quand c’est de la photo).


votre avatar







OlivierJ a écrit :



L’image est compressée au départ (H264 ou autre), je vois mal l’image décodée par l’ordinateur être recompressée pour être transmise à l’écran (avec quel algorithme et quelle facteur de compression et puissance nécessaire ?).





Tu peux très bien implémenter une compression sans pertes (lossless) entre la CG/l’IGP et le moniteur/la TV afin de diviser par 3 la bande passante nécessaire.&nbsp;

&nbsp;

Mais le HDMI 2.1 n’est pas encore passé à la compression (en tout cas il n’y a rien d’indiqué sur le site du consortium HDMI).

Les industriels ont donc encore réussi à multiplier la bande-passante des câbles au format HDMI.

Par ajout de blindages ?


HDMI 2.1 : 48 Gb/s, 8K à 60 Hz, Dynamic HDR et fréquence variable (VRR)

  • De la 8K à 60 Hz ou de la 4K à 120 Hz, avec Dynamic HDR

  • Un mode VRR pour les joueurs, des améliorations pour la partie audio

  • Un nouveau câble pour profiter du HDMI 2.1 ? Quid des anciens ? 

Fermer