Des séries originales d’Amazon passeront au HDR d’ici la fin de l’année
Vivement la 8K SMHDR !
Le 13 avril 2015 à 08h20
3 min
Internet
Internet
Le HDR, ou High Dynamic Range, a le vent en poupe ces derniers jours. Après le HDMI Forum qui annonce la norme HDMI 2.0a pour prendre en charge cette technologie, c'est au tour d'Amazon de se lancer. Le géant du Net annonce qu'il proposera cette année des contenus dans ce format.
Depuis quelques jours, une nouvelle norme HDMI existe officiellement : la 2.0a. Concrètement, les câbles et les connecteurs restent les mêmes et il n'y a qu'un seul changement par rapport à la précédente mouture : la prise en charge du High Dynamic Range, ou HDR, qui permet d'obtenir plus de détails à la fois dans les couleurs sombres et claires.
Amazon emboite le pas de l'association et annonce que certains de ses clients Prime Instant Video (aux États-Unis, au Royaume-Uni et en Allemagne) pourront profiter du HDR. « La résolution d'image 4K Ultra HD n'était qu'un début, nous sommes ravis à l'idée que les membres Prime soient en mesure de visionner des films et des programmes de télévision incluant Amazon Originals en qualité HDR » explique Michael Paul, le vice-président en charge de la vidéo numérique du géant du Net. Amazon ne donne aucun détail supplémentaire concernant les contenus qui seront disponibles, si ce n'est que « les séries Amazon Originals seront les premières à arriver en qualité vidéo HDR en fin d'année ».
Sauf surprise, le service de SVOD d'Amazon ne sera pas le seul à se battre sur ce terrain, loin de là même. Bien qu'aucune annonce officielle n'ait encore été faite du côté de Netflix, le responsable produit de la société, Neil Hunt, évoquait déjà le sujet au début de l'année lors d'une interview accordée à nos confrères du Telegraph : « Je pense que [le HDR] apporte une amélioration de la qualité encore plus importante que la 4K, et qui permet d'obtenir plus de luminosité et de détails dans l'image ». Il ajoute par contre qu'il « est probable que le HDR ne soit disponible que sur les TV 4K haut de gamme ». L'avenir nous le dira.
Il faudra maintenant voir comment le HDR sera perçu et adopté par les différents protagonistes (fabricants de télévision, créateurs et diffuseurs de contenus) et espérer qu'on ne retombera pas dans les travers de la 4K qui peine encore à se démocratiser, notamment à cause du manque de support physique et des besoins en bande passante pour du streaming.
Commentaires (58)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 13/04/2015 à 09h46
Ses pas faux " />
Le 13/04/2015 à 09h51
Pour résumer, après l’échec de le “3D” et le risque de difficulté à faire passer le 4K comme “essentiel” , ils prévoient le 8K, le HFR, le HDR
Donc “ils” aimeraient nous voir acheter des télés 8k-3D-HFR-HDR d’ici 10 ans, mais pas tout à la fois hein, faut renouveller le parc tous les 4-5 ans sinon c’est pas intéressant ;)
Sauf que nous en attendant on voudrait juste du bon contenu bien tourné, avec de bons acteurs et de bons scénarios… c’est techniquement possible au vu des avancées scientifiques ou bien ?
Le 13/04/2015 à 09h55
Le problème du HDR est qu’il n’y a aucune norme pour le moment est chacun fait sa sauce dans son coin.
Certains ont proposé un solution hardware donc il faut tout racheter (Dolby) alors que d’autres philipps proposent une solution software.
Bref, c’est le bordel donc en attendant il ne vaut mieux même pas s’en préoccuper dans l’achat de sa télé.
Le 13/04/2015 à 09h55
Ce qui me choque c’est ceux qui ne savent pas utiliser la fonction “Signalez une erreur”.
Mais bon, chacun ses soucis.
Le 13/04/2015 à 10h04
Le HFR ferait un grand bien à mes yeux… Marre de voir des mouvements flous ou qui saccadent !
Le 13/04/2015 à 10h13
Je viens de m’inscrire sur ce site, je ne connais pas cette fonction. Mais bon quand on est journaliste on est pas censé faire ce genre de faute. Je dis ça je dis rien.
Ctrl f sur la page avec comme mot clé “Signalez” et je ne trouve rien. Cette option est visiblement bien caché mais elle serait pourtant utile.
Le 13/04/2015 à 10h14
HDR signifie simplement plus que 256 valeurs (8 bits) par composante RVB. Parce que 16 millions de couleurs (256256256) ça paraît beaucoup, mais en fait pour une teinte donnée il n’y a qu’au maximum 256 niveaux de luminosité.
Mais pour cela il faut, en plus de toute la chaîne de production (caméra, post-production etc.) :
À tous ceux qui pensent que leur écran affiche déjà en HDR, ou qu’il faut de la puissance de calcul : vous confondez avec le fait que votre écran actuel ne peut qu’afficher qu’en 24 bits et que si l’origine est en HDR il faut une conversion, soit brutale (laisser tomber les bits de poids faibles) soit adaptative localement (c’est ce que font les jeux vidéo).
Le 13/04/2015 à 10h15
si je me trompe pas, il n’y a pas de rapport entre le HDR et le flou ou les saccades.
Le 13/04/2015 à 10h18
Le 13/04/2015 à 10h19
En attendant l’erreur est toujours là…
Le 13/04/2015 à 10h23
Il parle du HFR, pas du HDR
Le 13/04/2015 à 10h24
Le 13/04/2015 à 10h41
Le 13/04/2015 à 10h47
Lorsque tu descends dans la news, dans la barre du haut à droite de NextInpact se trouve un bouton avec un triangle et un point d’exclamation. C’est le bouton qu’il faut utiliser pour le signalement.
" />
Le 13/04/2015 à 10h48
C’est vrai que le bouton signaler n’est pas évident à trouver ni très explicite.
Le 13/04/2015 à 10h58
Cette news m’intrigue très fortement. On parle bien du même HDR que en photo ?
Mais l’information pour les zones claires et sombres, ils la tirent d’où ? Ne risque-t-on pas de saloper l’image s’ils n’utilisent qu’une seule source ?
Et la recette employée pour le HDR sera ajustable ? Parce qu’il y a HDR et HDR, autrement dit un truc qui est discret mais efficace et un truc qui décolle la rétine (à titre d’exemple : https://www.flickr.com/groups/569830@N25/ )
En plus, sur ordinateur, le HDR demande quand même un certain temps de calcul pour traiter correctement une image, comment est-ce géré sur un téléviseur en direct ?
Le 13/04/2015 à 13h56
Les GPU pourraient le faire aisément de façon logiciel.
Mais ça prend un écran HDR…
Le 13/04/2015 à 14h04
J’avoue que j’ai dû mal à comprendre aussi. Le hdr consiste à prendre une image avec plusieurs valeurs d’expositions incluses dans un seul fichier image, ensuite le logiciel permet de choisir l’exposition désirée.
Beaucoup utilisée en 3D pour respecter au mieux la vérité de l’éclairement.
Ainsi en forte lumière le programme choisira de délaver des vitraux et si le ciel s’assombrit, le logiciel fera la transition avec l’image dans laquelle les vitraux auront été correctement exposés.
Du coup, il faudrait prendre à la prise de vu différentes valeurs de diaphragme. Ce qui semble impossible à la prise de vue ciné.
Sauf si c’est une fausse HDR.
En tous les cas, autant tout faire en post prod. Bien plus efficace.
Y’a un truc qui m’échappe…
Le 13/04/2015 à 14h13
Le 13/04/2015 à 14h21
Ah. J’ai appris quelques choses :) Donc le 4:4:4 est d’office à gamme dynamique étendue ?
Le 13/04/2015 à 15h15
Le 13/04/2015 à 15h51
C’est d’ailleurs pour ça que je préfère viser une caméra 4:4:4, si j’avais à en acheter une.
Certaines petites canon le font avec en plus prises dmx pour le son.
Mais ce sera dans une autre vie ^^
Le 14/04/2015 à 08h06
Le 14/04/2015 à 14h32
moi j’ai du mal à voir comment tout se raccorde : on code (quantification) avec un certaines nombres de bits (8, 10, 12) chaque pixel de l’image et pour l’affichage, pour faire du HDR, on doit donc être capable d’assigner différentes nuances de luminosité plus importantes que sans HDR : par ex une scène avec une feuille de papier blanche et un soleil, on fera ressortir le soleil 15 000 fois plus “blanc” (lumineux) que la feuille (j’ai bon ?). Mais qu’est-ce qui permet de faire ça ? Ce qu’on appele l’espace de couleur (sRGB, AdobeRGB, etc) ? Le gamma ? Ça n’a rien à voir ?
Quelqu’un aurait un doc qui explique un peu tout ça parce qu’on s’y perds ? :(
Le 14/04/2015 à 14h42
Le 14/04/2015 à 14h46
Après j’imagine le poids de la minute d’enregistrement.
Mon pauvre laptop Alienware risque de souffrir ^^
Le 14/04/2015 à 15h05
Le 14/04/2015 à 15h11
Je vais regarder ça cet été.
Pour le moment mon laptop gère très bien du After non RaW en full HD.
Faudrait que je télécharge un fichier RaW pour me rendre compte ^^
Le 13/04/2015 à 08h31
Punaise ,cela sent le MKT pour la vente de télé cet été ,tiens…
Le 13/04/2015 à 08h40
Moi pas comprendre le HDR. Pourquoi c’est pas juste fait en post production ? En quoi ya besoin d’une TV spéciale?
Le 13/04/2015 à 08h48
+1 je comprend pas non plus, qu’est ce que la télé vient faire la dedans ? pour simuler des flux non ‘HDRisé’ ??
Le 13/04/2015 à 08h49
Le 13/04/2015 à 08h53
Bientôt on pourra régler le niveau de qualité des films et séries comme dans un jeu, est-ce réellement une avancée ou un gadget ^^ ? N’est ce pas mieux une télé qui respecte surtout au mieux l’œuvre originale comme elle a été filmée ? Vouloir absolument faire apparaitre le moindre détail dans une scène, ça ne risque pas de parasiter l’œil en le surchargeant ?
Je sais que de mon côté les jeux qui abusent des filtres comme le hdr me fatigue plus vite les yeux pour une amélioration visuel vraiment légère.
Le 13/04/2015 à 08h54
En effet, une explication serait bienvenue. Pour afficher les photos en HDR, je n’ai pas besoin d’acheter un autre écran. C’est la prise de vue qui fait le boulot !
Le 13/04/2015 à 09h01
Le 13/04/2015 à 09h08
Le 13/04/2015 à 09h23
Le soucis de nos TV actuelles concernant le HDR n’est pas une question de bitrate ?
On remarque souvent que déjà, une scène en traveling où tous les pixels se mettent à changer provoque souvent de petites sacades dûes à une augmentation énorme du bitrate.
Du coup, avec ce principe dynamique, le bitrate ne se retrouverai pas plus élevée sur la totalité du film, nécessitant alors un traitement plus lourd ?
Simple spéculation =)
Le 13/04/2015 à 09h24
Le 13/04/2015 à 09h38
Je me posais la même question quand à l’impact technique nécessaire sur la TV.
Est ce que HDMI 2.0a et autres nouvelles TV ne permettent pas de recevoir plusieurs flux en parallèle et de faire le traitement avant d’afficher sur l’écran le résultat en HDR (un peu comme nos softs pour la photo mais en beaucoup beaucoup plus rapide…) ? donc gros traitement fait sur la TV (d’où l’arrivée des Octo Proc)
Mais ce flux peut-il être traité avant la TV : à la source du flux (ex : chez l’opérateur), sur une Box Media (dur dur pour mon Raspberry)… ?
TV HDR = TV capable de faire le calcul HDR en temp réel? ou est-ce qu’une TV HD peut recevoir un signal contenant déjà une image HDR et l’afficher sans problème?
Le 13/04/2015 à 09h41
Apres le FHD, le DTS-HD, puis le 4K, maintenant le HDR, bientôt KKDTC, prochainement le JMMPP…
Bien sur, faut tout racheter
Le 13/04/2015 à 09h44
“Le HDR, ou High Dynamic Range, à le vent en poupe SES derniers jours.“Ca ne choque que moi???
Le 13/04/2015 à 09h45
Je sais meme pas pourquoi tu essaie de comprendre. Vraiment.
Garde juste en tete, que c’est mieux, plus beau, plus réaliste, plus tout. Que tout ce que tu possedes chez toi, c’est de la merde, et que va falloir tout racheter.
Voila.
Le 13/04/2015 à 11h01
Le 13/04/2015 à 11h06
Le 13/04/2015 à 11h06
Si je comprend bien, on parle du même “phénomène”, mais traité de manière différente :
Mais pour le coup, j’aimerai bien voir de mes yeux la différence … mais j’ai un doute que les démo qu’ils montreront en magasin soient “interessantes” … oh regardez comme l’image est moche, naze, sale, saccadée sans HDR !!
Le 13/04/2015 à 11h29
C’est ça, et une image noire, même en 48 bits, ça a peu de dynamique…
Si, la quantification ça compte ; c’est ce qui limite la dynamique maximale. Bien sûr qu’il faut du HDR dès la prise de vue et tout au long du traitement, comme je le précisais d’ailleurs, mais là on parle de la fin de la chaîne, qu’il n’est pas simple de passer en HDR.
(On parle de vidéo là, pas de photo. Et je travaille dans le domaine, enfin pas directement mais des collègues à moi)
Le 13/04/2015 à 11h37
Le prix de écrans va se démocratiser, c’est comme la HD : le problème c’est que personne ne va acheter un écran HDR tant qu’il n’y a pas de sources, et personne (ou presque, donc) ne veut diffuser en HDR tant que personne ne peut en profiter.
Et je partage l’avis cité dans la niouze : le HDR apporte bien plus que l’UHD/4K (qui ne se justifie que pour un écran de plus de 3 mètres).
Le 13/04/2015 à 12h01
Pour ceux qui ne savent toujours pas ce qu’est le HDR en télévision, vous serez tout ici:
http://www.dolby.com/us/en/technologies/dolby-vision/the-art-of-better-pixels.pd…
Après plus d’excuse pour l’ignorance.
Reste que PCI devrait faire un petit dossier, car beaucoup de gens se questionne.
Le 13/04/2015 à 12h20
Oui, moi aussi je connais un type qui connait un gars qui bosse avec celui là. On me la fait pas à moi. Ok ?
D’ailleurs le gus en question a certainement donné la meilleur explication à ce procédé fumeux.
Son commentaire est le n°21.
Le 13/04/2015 à 12h22
Le 13/04/2015 à 12h29
Le 13/04/2015 à 12h34
Plus tu expliques… moins je comprends " />
Le 13/04/2015 à 12h45
Pardon, je parlais bien sûr d’écran de TV, c’est-à-dire de distance de visualisation de 2 ou 3 mètres. La niouze parle de séries TV.
Pour un écran de PC ou de smartphone c’est une autre histoire.
Le 13/04/2015 à 13h13
Il explique que la HD n’a rien à voir avec le niveau de détail dans l’image. Parce que si l’image est floue à la prise de vue, hé bien la HD n’apporte rien.
Le 13/04/2015 à 13h18
Ben si, ce sera un flou de qualitay.
Le 13/04/2015 à 13h33
Le 13/04/2015 à 13h49
Vivement que les consoles commencent a se battre sur ce genre de domaine “ 360 COMPATIBLE HDR”, “ OUAIS MAIS PS4 EST HFR” " />
D’ailleur quand est ce que les CG vont commencer a sortir çà, qu’on puisse continuer a faire “ PC master race “ " />
Le 13/04/2015 à 13h52
Non. Les caméras pros prennent déjà des images sur 10 bits. Il n’y a pas de traitement pour recomposer des images.
Tout ce qui manque pour l’instant, c’est le protocole pour transférer les images vers les téléviseurs de particuliers… et des téléviseurs capables d’afficher des images codées en 10 bits (ou plus).