Connexion
Abonnez-vous

HDMI 2.0 : nouveaux produits et mise à jour des constructeurs, on fait le point

Il y a les méchants, et il y a les gentils

HDMI 2.0 : nouveaux produits et mise à jour des constructeurs, on fait le point

Le 04 septembre 2013 à 18h54

C'est un peu plus tôt dans la journée que la nouvelle version 2.0 de l'HDMI a été dévoilée. Suite à cette annonce, nous avons contacté plusieurs constructeurs afin de savoir si une mise à jour de leurs produits actuels était prévue, et si des nouveautés supportant cette norme étaient déjà en prévision. Voici un bilan de leurs réponses.

L'HDMI 2.0 est désormais officiel. Parmi ses nouveautés, on note surtout une augmentation du débit permettant le support de la 4K @ 60 Hz. Mais bien d'autres améliorations sont prévues, comme nous l'avions récemment détaillé. La bonne nouvelle, c'est que la connectique et les câbles ne changent pas. Nous avons donc demandé à plusieurs constructeurs de TV, mais aussi de CPU / GPU s'ils prévoyaient une mise à jour de leurs produits ou une nouvelle gamme pour les mois à venir.

 

HDMI 2.0

Sony : la gamme X9 aura droit à une mise à jour

Pour le moment, un seul a pu nous répondre : Sony. En effet, la marque vient d'indiquer que les téléviseurs LED BRAVIA X9 4K (Ultra HD) actuellement disponibles chez les revendeurs, pourront profiter d'une mise à jour de leur firmware d'ici quelques mois : 

 

« Dès la fin 2013, une mise à jour du firmware sera proposée en téléchargement et offrira des performances du futur à ces célèbres téléviseurs Ultra HD en leur permettant d’afficher un signal vidéo 4K (3840 x 2160) jusqu’à 60p. Jusqu'à présent, la série BRAVIA X9 a été en mesure de gérer de la vidéo 4K à 30 images par seconde (30p). Cette mise à niveau gratuite permettra au X9 - disponible en 65" et 55"- de recevoir et d’afficher les contenus 4K 60p de demain via un simple câble HDMI. »

Panasonic : une nouvelle TV haut de gamme pour apporter le support de l'HDMI 2.0

Autre annonce intéressante, celle de Panasonic qui dévoile cette fois une nouvelle TV dont la date de disponibilité ou le tarif n'ont pas été indiqués : la TX-L65WT600E. Celle-ci dispose d'une double connectique HDMI 2.0 / DisplayPort 1.2a. La fiche de ce modèle de 65" (16:9) indique bien un support de la 4K Ultra HD @ 60 Hz, de la 3D active, d'une certification THX et d'angles de vision de 176°. Vous retrouverez tous les détails par ici.

 

Panasonic  65WT600E

 

Au gré des réponses des différentes marques, cette actualité sera mise à jour.

Commentaires (48)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar







coucou_lo_coucou_paloma a écrit :



Pour le jeu, n’en parlons pas. Mais pour des vidéos ? Les BD risquent d’être juste, mais pour ceux qui ont la fibre, pourquoi pas.





Vidéo = 24p :) Je vois pas trop le rapport sinon ?


votre avatar

4K @ 60 Hz !

Insuffisant.

On commence déjà de parler de filmer en 78 images / secondes (le Hobbit est en 48 images/s) … il faudra donc une fréquence de 120 Hz pour que les yeux ne piquent pas !

Rajoutez 4K - 3D et paf, c’est du 240 Hz qu’il faut pour la norme HDMI.



La 2.0 est à peine sortie qu’elle est déjà morte. <img data-src=" />

votre avatar







David_L a écrit :



Vidéo = 24p :) Je vois pas trop le rapport sinon ?







Peut être pas pour longtemps, peter jackson aime le 48p.


votre avatar







luxian a écrit :



4K @ 60 Hz !

Insuffisant.

On commence déjà de parler de filmer en 78 images / secondes (le Hobbit est en 48 images/s) … il faudra donc une fréquence de 120 Hz pour que les yeux ne piquent pas !

Rajoutez 4K - 3D et paf, c’est du 240 Hz qu’il faut pour la norme HDMI.



La 2.0 est à peine sortie qu’elle est déjà morte. <img data-src=" />







oups grilled, d’accord avec toi.


votre avatar

Au fait, le TX-L65WT600E …



http://www.avcesar.com/actu/id-12274/ifa-13-tv-ultra-hd-panasonic-tx-l65wt600e-h…



7.000 € !



bon, je vais m’acheter une Logan …

votre avatar







luxian a écrit :



4K @ 60 Hz !

Insuffisant.

On commence déjà de parler de filmer en 78 images / secondes (le Hobbit est en 48 images/s) … il faudra donc une fréquence de 120 Hz pour que les yeux ne piquent pas !







Je ne sais pas si tu es sérieux, mais si oui il s’agit d’élucubrations. La fréquence de 24 images/s a été choisie au cinéma car à cette fréquence on n’y distingue pas le fait qu’il s’agit d’images successives, du fait de la persistance rétinienne.

En admettant qu’il y a une certaine proportion pour qui la persistance n’est pas suffisante à 24 i/s, 30 i/s (télévision américaine) ça fait déjà une différence notable, et avoir monté à 48 c’est juste pour la simplicité (facteur 2) car c’est juste énorme. Je ne pige pas cette histoire de 60 Hz, sauf à être en entrelacé (mais il vaut mieux 30 Hz non entrelacé).


votre avatar







OlivierJ a écrit :



Je ne sais pas si tu es sérieux, mais si oui il s’agit d’élucubrations. La fréquence de 24 images/s a été choisie au cinéma car à cette fréquence on n’y distingue pas le fait qu’il s’agit d’images successives, du fait de la persistance rétinienne.

En admettant qu’il y a une certaine proportion pour qui la persistance n’est pas suffisante à 24 i/s, 30 i/s (télévision américaine) ça fait déjà une différence notable, et avoir monté à 48 c’est juste pour la simplicité (facteur 2) car c’est juste énorme. Je ne pige pas cette histoire de 60 Hz, sauf à être en entrelacé (mais il vaut mieux 30 Hz non entrelacé).









Ca ce fera et c’est juste pour vendre encore plus de matos et faire tout racheter… les films seront tournés et surtout encoder de façons à ce que ce soit impossible de regarder agréablement sans de grosses fréquence d’affichage …



En bref ils vont virer le flou dans les mouvements qui te permet de regarder un film sans que ça pique les yeux ou que ça te paraisse saccadé un peu comme dans les jeux vidéos …. sinon y aurait pas besoin de cpu ou gpu qui te fait du 60 fps pour apprécier ton jeu à fond 24 frames par seconde seraient suffisant….



Et bon concernant la persistance rétienne elle varie un chouia en fonction des gens et tu peux largement détecter des images qui ont une fréquence d’affichage plus basse que 1/24eme de seconde … suffit de penser aux flashs des appareils photos ou aux lumières stoboscopiques qui durent quelques millième de secondes…



En bref la façon dont l’oeil et le cerveau perçoive l’univers visuelle environnant est LARGEMENT plus subtil que la simple notion de persistance rétinienne sur laquelle tu t’appuies…


votre avatar







Clad omnislash a écrit :



Peut être pas pour longtemps, peter jackson aime le 48p.





C’est surtout pour améliorer la 3D (et les travelling, j’avoue). Par contre le Blu-Ray est en… ? <img data-src=" />


votre avatar







David_L a écrit :



C’est surtout pour améliorer la 3D (et les travelling, j’avoue). Par contre le Blu-Ray est en… ? <img data-src=" />







<img data-src=" /> blueray, c’est vrai, pourquoi ne pas l’avoir fait monsieur Peter. Les lecteurs et autres passerelles multimédia ne connaissent pas encore le format, pas assez répandu a hollywood. Viendra en son temps, quand les industrielles seront plus quoi inventer pour satisfaire notre geektitude.


votre avatar

Donc une simple update du firmware suffirait à rendre un produit compatible HDMI2.0 (comme les TV SONY), ou SONY avaient anticipé?

C’est probable, mais pas souhaité histoire de revendre des nouveaux produits. C’est forcément moins excusable de ne pas le faire sur une TV 4K, par contre sur les platine blu-ray et les ampli HC…

votre avatar







Loeff a écrit :



Donc une simple update du firmware suffirait à rendre un produit compatible HDMI2.0 (comme les TV SONY), ou SONY avaient anticipé?

C’est probable, mais pas souhaité histoire de revendre des nouveaux produits. C’est forcément moins excusable de ne pas le faire sur une TV 4K, par contre sur les platine blu-ray et les ampli HC…







+1

Ca m’a étonné aussi.

A l’époque du 1.3 vers 1.4 il n’y avait eu de màj firmware mais hardware.


votre avatar







Schumi a écrit :



+1

Ca m’a étonné aussi.

A l’époque du 1.3 vers 1.4 il n’y avait eu de màj firmware mais hardware.







Il me semble que le passage du 1.3 vers 1.4 apportait quelques modification physique du port, mais pas certains. Par contre cette norme 2.0 n’apporte que des débits supérieurs.


votre avatar







David_L a écrit :



Sur les consoles ça n’aurait aucun sens autre que marketing, le matos intégré ne supportera jamais une telle définition en jeu.







On parle pas de jeux mais de lecture vidéo (Blu Rau en H265 certainement) 4k en 30 ou 60 fps.

Sony l’a déjà prouvé en ayant améliorer la vidéo sur PS3, 1080p@24fps, upscal dvd 1080 etc.

Le jeu en 1080p@60 fps me suffira, je jour pas au cinéma…


votre avatar







Loeff a écrit :



Il me semble que le passage du 1.3 vers 1.4 apportait quelques modification physique du port, mais pas certains. Par contre cette norme 2.0 n’apporte que des débits supérieurs.







Il y a de quoi s’y perdre je trouve. J’avais lu également qu’un câble 1.3 permettait de faire passer de la 3D? par exemple, si je me souviens bien !



Mais alors, ils vont mettre quoi comme dénomination sur les câbles ? Ca fait un peut protocole en 2.0 mais câble en 1.4 !


votre avatar







David_L a écrit :



C’est surtout pour améliorer la 3D (et les travelling, j’avoue). Par contre le Blu-Ray est en… ? <img data-src=" />







Ben un bluray 3d est en 48p :)

Et théoriquement un bluray du hobbit en 2d et 48p pourrait être lu par une télé et un lecteur bluray 3d.



Maintenant la 4k clair que ça me fait bien rire.

Sur un vidéoprojecteur une image immense pourquoi pas…

Encore que quand on a un vidéoprojecteur et une image immense on se colle pas le nez sur l’écran…

Et puis l’image toujours l’image… et le son alors ?

(oui warner m’énerve à mettre des vf pourries sur les bluray, à ne pas traduire les menus, ne pas sous-titres les commentaires et laisser les incrustations en anglais sur l’image mais bon hs je sais…)



La 4k c’est plutôt pour préparer le terrain à une 3d sans lunettes selon moi, il y a déjà des prototypes mais est ce que ça intéresse le grand public ? Perso j’adore la 3d mais ce n’est pas le cas de tout le monde.


votre avatar







Depy1501 a écrit :



Il y a de quoi s’y perdre je trouve. J’avais lu également qu’un câble 1.3 permettait de faire passer de la 3D? par exemple, si je me souviens bien !







Oui.

En fait les câbles 1.3, 1.4, spécial 3d etc c’est de l’arnaque. D’ailleurs la plupart des câbles ne l’indique plus il me semble.

Déjà la ps3 qui est hdmi 1.3 (le port hein !) est un excellent lecteur de bluray 3d. Preuve que le 1.3 suffit pour la 3d (faut juste faire passer le son via le câble optique)

Et tu veux savoir la différence entre un câble hdmi no name à 5 euro et un câble de marque spécial 3d à 30-40 qu’on te vendra à darty par exemple ?

Ben le prix.

C’est tout.

Bon tu peux tomber sur un câble foireux avec un no name mais déjà c’est rare et ensuite tu le verras très vite. Ça m’est arrivé, j’ai pris un autre no name et plus de soucis.





edit: cela est valable pour la même longueur de câble bien sur et si on prend des câble très long en no name la oui il est possible d’avoir des soucis de signal.


votre avatar

Je suis plutôt content de l’arrivée du DisplayPort sur certaines télévisions.

Si ce mouvement pouvait prendre de l’ampleur et toucher l’ensemble des fabricants de périphériques que l’on peut aussi brancher à une TV ça serait parfait !

votre avatar

Toujours pas de Thunderbolt sur les TV ou Smart TV?

votre avatar

Allez Sony pareil sur la PS4 !



Toujours est il que je ne suis toujours pas prêt a passer sur la 4k, je pense garder mon moniteur 1080p jusqu’à la 8k.

votre avatar







flodousse a écrit :



Allez Sony pareil sur la PS4 !



Toujours est il que je ne suis toujours pas prêt a passer sur la 4k, je pense garder mon moniteur 1080p jusqu’à la 8k.





Sur les consoles ça n’aurait aucun sens autre que marketing, le matos intégré ne supportera jamais une telle définition en jeu.


votre avatar

Deux PS4 connectés pour avoir du 2K déjà façon SLI / CrossFire

votre avatar







David_L a écrit :



Sur les consoles ça n’aurait aucun sens autre que marketing, le matos intégré ne supportera jamais une telle définition en jeu.



Pour le jeu, n’en parlons pas. Mais pour des vidéos ? Les BD risquent d’être juste, mais pour ceux qui ont la fibre, pourquoi pas.


votre avatar







coucou_lo_coucou_paloma a écrit :



Pour le jeu, n’en parlons pas. Mais pour des vidéos ? Les BD risquent d’être juste, mais pour ceux qui ont la fibre, pourquoi pas.







Les BD oui, les BDXL non.


votre avatar

Je trouve inutile pour le salon de tel résolution le pixel est déjà pas visible a l’œil nu en 10920x1080 sur un 50 pouce , se format est idéal pour les 70 pouce et plus , se qui est rare dans les salon

Pour la 3D , je tien a mes yeux ,j’ai testé quelque 3D et j’avais mal au yeux après souvent 1heure ou sa ne marchais tous simplement pas avec mes lunette de vue



En gros un changement pour faire du cash et un gaspillage de ressource .



Au lieu de gaspillé dans des recherche inutile il devrait penser a cherché comment recyclé les lcd , acl et plasma avant sa!

votre avatar

C’est moi ou la norme hdmi est toujours en retard sur la technologie qu’elle est sensé “normaliser” ?



Ou c’est juste pour pouvoir vendre les droits d’utilisations à chaque petite mise à jour ?


votre avatar







David_L a écrit :



Sur les consoles ça n’aurait aucun sens autre que marketing, le matos intégré ne supportera jamais une telle définition en jeu.







Si pour le blu ray 4K en h265 <img data-src=" />


votre avatar







coucou_lo_coucou_paloma a écrit :



Pour le jeu, n’en parlons pas. Mais pour des vidéos ? Les BD risquent d’être juste, mais pour ceux qui ont la fibre, pourquoi pas.





Je sais plus ou j’ai lu ça, mais il me semble que sony va créer des galettes plus grosse, en plus le h.265 sera la nouvelle norme qui compresse encore plus que le h.264 (2 fois ?)



SInon le 4k va encore mettre un peu de temps, vu le prix des tv exorbitant, malgré une grosse baisse, puis le manque de contenu.



Enfin, la base est là, avec la norme h.265 et le hdmi 2.0, et pour le 8k, va falloir attendre la ps7.


votre avatar

Une grande tv ça permet de faire ça. <img data-src=" />

votre avatar







coucou_lo_coucou_paloma a écrit :



Une grande tv ça permet de faire ça. <img data-src=" />





<img data-src=" />


votre avatar







Ideal a écrit :



Ca ce fera et c’est juste pour vendre encore plus de matos et faire tout racheter… les films seront tournés et surtout encoder de façons à ce que ce soit impossible de regarder agréablement sans de grosses fréquence d’affichage…



En bref ils vont virer le flou dans les mouvements qui te permet de regarder un film sans que ça pique les yeux ou que ça te paraisse saccadé un peu comme dans les jeux vidéos…







Les films seront encodés de façon

<img data-src=" />

C’est indépendant du codec (compression) utilisé, mais si c’est enregistré en 48 i/s, en principe en prenant une image sur deux on retrouve ce qu’on aurait eu à 24 i/s. Je ne suis pas sûr que le flou dans les mouvements soit nécessaire pour donner l’impression de fluidité, ce flou est plus lié à la luminosité disponible et à la vitesse d’obturation (comme sur un appareil photo).







Ideal a écrit :



Et bon concernant la persistance rétienne elle varie un chouia en fonction des gens et tu peux largement détecter des images qui ont une fréquence d’affichage plus basse que 1/24eme de seconde … suffit de penser aux flashs des appareils photos ou aux lumières stoboscopiques qui durent quelques millième de secondes…







D’après une recherche que je viens de faire, on pourrait distinguer jusqu’à 40 i/s environ, mais les 25 i/s du cinéma sont suffisants pour qu’on ne s’aperçoive pas consciemment de la discontinuité.

Je n’ai pas compris ce que tu as voulu dire sur les stroboscopes ; leur principe est d’éclairer la scène puissamment à une fréquence généralement plus faible que la limite de l’oeil, pour donner un aspect saccadé à l’action. Et quand on augmente la fréquence des flash, à un moment la lumière apparaît continue (à une fréquence plus élevée que pour le cinéma car là c’est exacerbé par la puissance des éclairs).


votre avatar







David_L a écrit :



[ Clad omnislash ] « Peut être pas pour longtemps, peter jackson aime le 48p. »

C’est surtout pour améliorer la 3D (et les travelling, j’avoue). Par contre le Blu-Ray est en… ? <img data-src=" />







J’ai cherché un peu et pas trouvé l’info, est-ce que ces 48 i/s concernent chaque oeil (du fait de la 3D), ou bien le flux total d’images est de 48 par secondes et ça en fait 24 pour chaque oeil ?

Je me pose la même question : est-ce qu’un film comme avatar censé être en 24 i/s a été filmé en 24 i/s avec une image sur deux pour chaque oeil, ou bien le flux est au final de 48 i/s pour avoir bien 24 i/s par oeil ?


votre avatar







OlivierJ a écrit :



J’ai cherché un peu et pas trouvé l’info, est-ce que ces 48 i/s concernent chaque oeil (du fait de la 3D), ou bien le flux total d’images est de 48 par secondes et ça en fait 24 pour chaque oeil ?

Je me pose la même question : est-ce qu’un film comme avatar censé être en 24 i/s a été filmé en 24 i/s avec une image sur deux pour chaque oeil, ou bien le flux est au final de 48 i/s pour avoir bien 24 i/s par oeil ?







Avatar a été filmé en 24i/sec par œil soit 48 i/sec en tout.

Tous les films en vrai 3d sont filmés de cette manière et rendu de cette manière sur les télés 3d (donc théoriquement on pourrait avoir du 48i/sec sur un film en 2d avec un lecteur et une télé 3d)

Sauf le hobbit qui a été filmé en 48 i/sec par œil soit 96 i/sec en tout.

Et honnêtement pour avoir vu le hobbit en 48isec et 3d au ciné ça se sent.

Mais je ne dirais pas que c’est mieux, c’est un rendu différent. Certains n’aiment pas du tout d’ailleurs.



Pour la 3d le soucis vient en partie des travellings et des mouvements rapides.

Pour prendre l’exemple d’avatar (que j’ai vu en 3d aussi) il y a des scénes ou j’ai eu une impression de floue très dérangeante lors de mouvement rapide dans des scénes d’actions.

Pour le hobbit je n’ai jamais pu prendre la 3d en défaut de ce point de vu là.


votre avatar

juste un petit détail. les projecteurs de ciné en argentique, projetaient en 24 x 2. C’est à dire que chaque image était projeté 2 fois =&gt;




  1. avance d’une image + occultation

  2. projection de l’image n

  3. occultation

  4. projection de l’image n

  5. avance d’une image + occultation

  6. projection de l’image n +1

  7. occultation

  8. projection de l’image n +1

  9. avance d’une image + occultation

    ….

votre avatar







OlivierJ a écrit :



Les films seront encodés de façon

<img data-src=" />

C’est indépendant du codec (compression) utilisé, mais si c’est enregistré en 48 i/s, en principe en prenant une image sur deux on retrouve ce qu’on aurait eu à 24 i/s. Je ne suis pas sûr que le flou dans les mouvements soit nécessaire pour donner l’impression de fluidité, ce flou est plus lié à la luminosité disponible et à la vitesse d’obturation (comme sur un appareil photo).







D’après une recherche que je viens de faire, on pourrait distinguer jusqu’à 40 i/s environ, mais les 25 i/s du cinéma sont suffisants pour qu’on ne s’aperçoive pas consciemment de la discontinuité.

Je n’ai pas compris ce que tu as voulu dire sur les stroboscopes ; leur principe est d’éclairer la scène puissamment à une fréquence généralement plus faible que la limite de l’oeil, pour donner un aspect saccadé à l’action. Et quand on augmente la fréquence des flash, à un moment la lumière apparaît continue (à une fréquence plus élevée que pour le cinéma car là c’est exacerbé par la puissance des éclairs).









Bon je parlai des stroboscopes mais c’est un exemple juste comme les flash, ça dure que quelques millièmes de seconde et tu les vois … c’est pour te dire que la 25ème image tu l’as vois largement tout comme la 41ème image y a même des images que tu ne vois pas “consciemment” pourtant ton cerveau la décode quand même c’est bien qu’il l’a voit ….

Sinon comment tu expliques la sensation de ralentissement même quand tu joues à un jeu vidéo en 3D par exemple que tu sois à 24 fps 30 fps 40fps et je pourrai pas dire de limite vu que j’ai pas testé jusqu’à 100 mdr.



&gt;&gt;&gt; Tout ça pour dire comme dans mon premier comm que c’est largement + complexe que la simple notion de persistance rétienne et que les industriels trouveront bien le moyen de te vendre un jour des films de cinéma qui atteindront ptet même les 100 ips par oeil…



Au cinéma ils ont posé la limite à 24images/secondes car ça devait être grillé en 23 images malgré tous les artifices ( blur motion enfin le flou dans les mouvements rapides ) sinon ils auraient mis 23 ….



Sinon pour la notion subtile de différence entre encodage et codage je veux bien que tu l’expliques bien qu’on parlait certainement de la même chose on moins ça aura le bénéfices de m’apprendre quelque chose … non je ne parlai pas de compression c’est légèrement hors sujet par rapport à ce dont on parle c’est sur <img data-src=" />


votre avatar







David_L a écrit :



Sur les consoles ça n’aurait aucun sens autre que marketing, le matos intégré ne supportera jamais une telle définition en jeu.







Ah bah ça c’est sur, c’est des consoles, pas des PC <img data-src=" />


votre avatar







jmc_plus a écrit :



juste un petit détail. les projecteurs de ciné en argentique, projetaient en 24 x 2. C’est à dire que chaque image était projeté 2 fois







En effet, voire 3 fois (24 x 3) d’après ce qu’on peut lire sur wikipedia (cfhttp://en.wikipedia.org/wiki/Frame_rate au début)







Ideal a écrit :



Bon je parlai des stroboscopes mais c’est un exemple juste comme les flash, ça dure que quelques millièmes de seconde et tu les vois… c’est pour te dire que la 25ème image tu l’as vois largement tout comme la 41ème image y a même des images que tu ne vois pas “consciemment” pourtant ton cerveau la décode quand même c’est bien qu’il l’a voit ….







Tu vois un flash qui dure même moins d’un millième de seconde, c’est du fait de la persistance rétinienne et de la puissance du flash. Par contre un personnage qui apparaît très brièvement dans une projection normale, tu ne le vois pas (le phénomène d’image subliminale, qui marche déjà à 25 i/s).







Ideal a écrit :



Sinon comment tu expliques la sensation de ralentissement même quand tu joues à un jeu vidéo en 3D par exemple que tu sois à 24 fps 30 fps 40fps et je pourrai pas dire de limite vu que j’ai pas testé jusqu’à 100 mdr.







La limite moyenne (puisque ça diffère selon les gens) semble être vers 40 i/s.







Ideal a écrit :



Tout ça pour dire comme dans mon premier comm que c’est largement + complexe que la simple notion de persistance rétienne et que les industriels trouveront bien le moyen de te vendre un jour des films de cinéma qui atteindront ptet même les 100 ips par oeil







Ah non, ce n’est pas plus complexe, enfin la persistance rétinienne est un des 2 facteurs. C’est à la fois lié à l’oeil (rétine) et au cerveau qui interprète les signaux ensuite (effet Phi). On peut toujours filmer en 100 i/s mais pour le coup c’est vraiment un gros gâchis, ça ne se distingue pas de 50 i/s.







Ideal a écrit :



Au cinéma ils ont posé la limite à 24images/secondes car ça devait être grillé en 23 images malgré tous les artifices ( blur motion enfin le flou dans les mouvements rapides ) sinon ils auraient mis 23 ….







Quant à la limite de 24 i/s du cinéma, auparavant on était à 10 ou 12 et c’était saccadé (cf les vieux films en noir et blanc), apparemment ça devient fluide à partir de 16 (d’après mes recherches) et la valeur de 24 c’est pour avoir plus de bande passante pour la piste sonore ; ça a dû être jugé suffisant pour la plupart des gens en faisant des essais.

Le flou de bougé est nécessaire pour les effets spéciaux car si le décor naturel a le flou et pas l’image de synthèse rajoutée, ça fait bizarre.







Ideal a écrit :



Sinon pour la notion subtile de différence entre encodage et codage je veux bien que tu l’expliques bien qu’on parlait certainement de la même chose on moins ça aura le bénéfices de m’apprendre quelque chose … non je ne parlai pas de compression c’est légèrement hors sujet par rapport à ce dont on parle c’est sur <img data-src=" />







Tu peux dire “encodage”, anglicisme moche qui est accepté à force d’usage, mais au départ c’est “codage” en français, comme dans “message codé”, “codage préfixe” et dans codec (codeur/décodeur). Et oui, en vidéo parler de codage (qui est impropre car ce n’est pas un codage au sens mathématique, vu qu’il y a perte) c’est équivalent à parler de compression.


votre avatar

Je pense que les aveugles s’ en fichent de la 4k, ils veulent juste être écoutés. D’ ailleurs avant d’ améliorer l’ affichage amélioront le contenu de ce qu’ on nous fait regarde.

votre avatar







Paladin_Fr a écrit :



Oui.

En fait les câbles 1.3, 1.4, spécial 3d etc c’est de l’arnaque. D’ailleurs la plupart des câbles ne l’indique plus il me semble.

Déjà la ps3 qui est hdmi 1.3 (le port hein !) est un excellent lecteur de bluray 3d. Preuve que le 1.3 suffit pour la 3d (faut juste faire passer le son via le câble optique)

Et tu veux savoir la différence entre un câble hdmi no name à 5 euro et un câble de marque spécial 3d à 30-40 qu’on te vendra à darty par exemple ?

Ben le prix.

C’est tout.

Bon tu peux tomber sur un câble foireux avec un no name mais déjà c’est rare et ensuite tu le verras très vite. Ça m’est arrivé, j’ai pris un autre no name et plus de soucis.





edit: cela est valable pour la même longueur de câble bien sur et si on prend des câble très long en no name la oui il est possible d’avoir des soucis de signal.





Merci pour l’information ! Tiens, comment sait on qu’on doit passer par le câble optique ? Je veux dire, c’est une chose qu’on fait et basta ou ça se remarque en perte de qualité par exemple ? Pareil pour faire passer de la 3D en 24Hz au lieu de 50 ou 60, est ce que ça se voit ?


votre avatar







OlivierJ a écrit :



Ah non, ce n’est pas plus complexe, enfin la persistance rétinienne est un des 2 facteurs. C’est à la fois lié à l’oeil (rétine) et au cerveau qui interprète les signaux ensuite (effet Phi). On peut toujours filmer en 100 i/s mais pour le coup c’est vraiment un gros gâchis, ça ne se distingue pas de 50 i/s.







Bah oui donc c’est + complexe que la simple persistance rétienne…. J’avais déjà vu cette page wikipédia mais je me suis pas permis de te renvoyer dessus en même je pensais pas avoir à te prouver que la perception visuelle n’était pas uniquement dépendante que de la persistance rétinienne ….

Sinon je crois t’as pas compris ( et d’ailleurs ça fais 3 fois que tu évitais le sujet ) au sujet des 100 ips je te parlais de framerate sur un jeu 3D ( pour te prouver que ta persistance rétienne à 24 ips ne faisait pas tout )

Je remarque d’ailleurs que ton avis et tes arguments ont évolués depuis t’as du faire marcher wikipedia et autres.

Cette discussion n’aura pas été inutile pour tout le monde.







OlivierJ a écrit :



Quant à la limite de 24 i/s du cinéma, auparavant on était à 10 ou 12 et c’était saccadé (cf les vieux films en noir et blanc), apparemment ça devient fluide à partir de 16 (d’après mes recherches) et la valeur de 24 c’est pour avoir plus de bande passante pour la piste sonore ; ça a dû être jugé suffisant pour la plupart des gens en faisant des essais.

Le flou de bougé est nécessaire pour les effets spéciaux car si le décor naturel a le flou et pas l’image de synthèse rajoutée, ça fait bizarre.







Bah oué mais ça n’empêche pas ce que j’avais dit à savoir que la barrière des 24 ips sera dépassé juste pour vendre du matos et qu’ils s’arrangeront pour que cela soit indispensable pour un visionnage agréable.

Ridicule parler de “ flou de bougé ” vraiment … Mais bon tu dois être le genre à acheter des DCs de musique lol Disques Compactes

Moi perso j’achète des CDs



16 ips franchement je suis pas sur mais si tu filmes le ciel étoilé sans bouger, c’est sur que c’est largement suffisant …. tien je veux bien tes sources à ce sujet par contre…







OlivierJ a écrit :



Tu peux dire “encodage”, anglicisme moche qui est accepté à force d’usage, mais au départ c’est “codage” en français, comme dans “message codé”, “codage préfixe” et dans codec (codeur/décodeur). Et oui, en vidéo parler de codage (qui est impropre car ce n’est pas un codage au sens mathématique, vu qu’il y a perte) c’est équivalent à parler de compression.







Dans ce cas fallait barrer le mot entier ou rien barrer …. Parce que moi perso je suis pas un fanatique du français quand il s’agit de mots se rapportant à des techniques ou à des expression à propos des arts… inventés et répandus par leurs créateurs/utilisateurs … américains en l’occurrence dans les domaines dont on parle …



Donc fallait remplacer “encodé” par “filmé” <img data-src=" /> ?

Quoique avatar et tous les films dont on parle ( en 48 ips ) sont filmé en numérique il me semble et donc directement encodé direct à la source ( codé/encodé/compressé whatever tu choisis c’est pareil pour 95% des gens quoique non t’as que 5% qui disent codé ( toi ah non tu trouve ça impropre dis donc faut te suivre ) <img data-src=" /> ) ….



Au fait une image numérique n’est pas forcément compressé alors qu’elle dépend malgré tout d’un codage informatique hein ….


votre avatar







Depy1501 a écrit :



Merci pour l’information ! Tiens, comment sait on qu’on doit passer par le câble optique ? Je veux dire, c’est une chose qu’on fait et basta ou ça se remarque en perte de qualité par exemple ? Pareil pour faire passer de la 3D en 24Hz au lieu de 50 ou 60, est ce que ça se voit ?









Concernant la ps3 et le son, et la c’est de mémoire et ça mérite d’être vérifié, il me semble qu’en fait la ps3 envoie une version du son moins gourmande en bande passante ou alors n’envoie pas le son si c’est du dts hd etc. Je suis pas certains.



Ce qui est sur c’est que suivant les sorties tu n’as pas les mêmes options dans la config de ta ps3. Et si c’est pour regarder avec ta télé tu t’en fiches, ça ne sert que si tu as un ampli.



L’image tu n’auras pas de perte de qualité. Ça passe ou ça passe pas.

L’image 3d n’est JAMAIS 50 ou 60 hertz.

En fait l’image d’un bluray est toujours (normalement) en 24i/sec comme au cinéma

Ce qui fait que la durée d’un film en bluray est différente de la durée en dvd.

Après il y a des télé qui augmentent le nombre d’image par seconde (c’est artificiel bien sur, il n’y a toujours que 24 images pour 1 seconde)

J’ai une philips qui fait ca.

Pour les films en 3d je le mets au minimum et ça augmente le confort de la 3d (me demande pas pourquoi je sais pas et je sais pas trop comment ça marche)



Après il y a le nombre d’image par seconde du film et le rafraichissement d’écran de la télé (le nombre d’image diffusé par seconde sur l’écran)

C’est pas le même.


votre avatar







Paladin_Fr a écrit :



L’image tu n’auras pas de perte de qualité. Ça passe ou ça passe pas.

L’image 3d n’est JAMAIS 50 ou 60 hertz.

En fait l’image d’un bluray est toujours (normalement) en 24i/sec comme au cinéma

Ce qui fait que la durée d’un film en bluray est différente de la durée en dvd.

Après il y a des télé qui augmentent le nombre d’image par seconde (c’est artificiel bien sur, il n’y a toujours que 24 images pour 1 seconde)

J’ai une philips qui fait ca.

Pour les films en 3d je le mets au minimum et ça augmente le confort de la 3d (me demande pas pourquoi je sais pas et je sais pas trop comment ça marche)



Après il y a le nombre d’image par seconde du film et le rafraichissement d’écran de la télé (le nombre d’image diffusé par seconde sur l’écran)

C’est pas le même.





C’est marrant que tu parles de ça parce que j’avais justement eu quelques situations ou je me suis demandé quoi faire.



J’ai regardé 2 Blu-ray dont 1 3D, tout deux via PowerDVD et HDMI vers la télé. Ayant des saccades que je n’avais pas sur lecture via PC, j’ai regardé au niveau du rafraichissement de l’écran dans les options et le résultat n’était pas pareil suivant que j’envoyais du 24hz ou du 50hz par exemple. d’après la télé, j’envoyais bien du 50hz… Je suppose que c’est modifié au niveau du pc avant d’être envoyé ! Je n’ai pas fais ce genre de tests pour le film en 3D mais je t’avoue que j’ai été un peu de mal a trouver ce qui était le mieux niveau qualité et confort de visionnage <img data-src=" /> Bon, j’avais ma copine qui était derrière moi à attendre donc je n’ai pas vraiment investigué plus loin <img data-src=" /> !



En tout cas, maintenant, j’ai pas mal de questions sur le sujet, que ce soit pour une lecture sur télé ou pc ! Je me suis même demandé si je n’allais pas basculé en 24hz sur l’écran de pc la prochaine fois que je regardais un film dessus…


votre avatar







Ideal a écrit :



Sinon je crois t’as pas compris ( et d’ailleurs ça fais 3 fois que tu évitais le sujet ) au sujet des 100 ips je te parlais de framerate sur un jeu 3D ( pour te prouver que ta persistance rétienne à 24 ips ne faisait pas tout )

Je remarque d’ailleurs que ton avis et tes arguments ont évolués depuis t’as du faire marcher wikipedia et autres.

Cette discussion n’aura pas été inutile pour tout le monde.







Pour les jeux, je ne saurais te dire, je ne joue pas à des jeux récents.

Que ce soit pour les jeux ou pour du cinéma, il faudrait qu’on puisse tester (chacun d’entre nous) différentes fréquences d’images (genre de 5 en 5 à partir de 24 ips) et voir à partir de quel taux on ne voit plus vraiment de différence, sachant que jusqu’à présent les 24 ou 25 ips ne m’ont jamais semblé insuffisant côté cinéma.







Ideal a écrit :



Ridicule parler de “ flou de bougé ” vraiment … Mais bon tu dois être le genre à acheter des DCs de musique lol Disques Compactes

Moi perso j’achète des CDs







Ce qui est ridicule c’est de glisser des mots anglais là où c’est juste la traduction du français. If you want we can entirely speak english but I doubt you will prefer that.







Ideal a écrit :



16 ips franchement je suis pas sur mais si tu filmes le ciel étoilé sans bouger, c’est sur que c’est largement suffisant …. tien je veux bien tes sources à ce sujet par contre…







C’est je crois sur une des pages wikipedias en anglais, celle sur le “frame rate” probablement, ou sinon sur un lien via google en première page en cherchant la raison du 24 i/s. Tu la retrouveras aussi vite que moi.







Ideal a écrit :



Dans ce cas fallait barrer le mot entier ou rien barrer …. Parce que moi perso je suis pas un fanatique du français quand il s’agit de mots se rapportant à des techniques ou à des expression à propos des arts… inventés et répandus par leurs créateurs/utilisateurs … américains en l’occurrence dans les domaines dont on parle …







Ah non, la notion de codage et de codec n’a rien de particulièrement américain, d’ailleurs codec ça vient de “codeur/décodeur”, ce n’est pas “encodec” note bien, et ça date d’avant l’informatique généralisée. Le codage de Huffman est réellement un codage, qui sert à compresser l’information.



Je ne sais pas pourquoi, déjà avant les vidéos en commençant par les MP3, on s’est mis à parler de codage (ou encodage) au lieu de compression, car ce n’est pas un codage au sens strict, c’est une compression avec perte. Au début on parlait de compression MP3. Et bizarrement on ne dit pas qu’on a “encodé” en JPEG ses images, ce que la logique voudrait.

Après, le pli a été pris et répandu pour la vidéo, surtout avec le DivX qui a permis de faire tenir un DVD sur un CD, en gros.







Ideal a écrit :



Quoique avatar et tous les films dont on parle ( en 48 ips ) sont filmé en numérique il me semble et donc directement encodé direct à la source ( codé/encodé/compressé whatever …

Au fait une image numérique n’est pas forcément compressé alors qu’elle dépend malgré tout d’un codage informatique hein ….







En effet, un codage n’est pas forcément une compression, mais en informatique dans le domaine audio-visuel c’est synonyme.

Quand on parle de codage 4:2:2 (utilisé en vidéo et dans le JPG) c’est le codage des composantes YUV et c’est avec perte, on se permet de laisser tomber des informations de chrominance, et ça c’est avant la compression la plus puissante qui est appliquée ensuite (DCT ou ondelettes).

Un film comme Avatar est enregistré et travaillé dans un format sans perte, pour tous les traitements et les effets spéciaux. C’est uniquement pour la diffusion (DVD/BluRay/télévision) qu’il est compressé (“codé”) pour des raisons de place, MPEG2 pour le DVD, H264 pour le BluRay, et pour la télévision ça dépend.


votre avatar







Depy1501 a écrit :



C’est marrant que tu parles de ça parce que j’avais justement eu quelques situations ou je me suis demandé quoi faire.



J’ai regardé 2 Blu-ray dont 1 3D, tout deux via PowerDVD et HDMI vers la télé. Ayant des saccades que je n’avais pas sur lecture via PC, j’ai regardé au niveau du rafraichissement de l’écran dans les options et le résultat n’était pas pareil suivant que j’envoyais du 24hz ou du 50hz par exemple. d’après la télé, j’envoyais bien du 50hz… Je suppose que c’est modifié au niveau du pc avant d’être envoyé ! Je n’ai pas fais ce genre de tests pour le film en 3D mais je t’avoue que j’ai été un peu de mal a trouver ce qui était le mieux niveau qualité et confort de visionnage <img data-src=" /> Bon, j’avais ma copine qui était derrière moi à attendre donc je n’ai pas vraiment investigué plus loin <img data-src=" /> !



En tout cas, maintenant, j’ai pas mal de questions sur le sujet, que ce soit pour une lecture sur télé ou pc ! Je me suis même demandé si je n’allais pas basculé en 24hz sur l’écran de pc la prochaine fois que je regardais un film dessus…









C’était quoi comme télé ?

Parce que quand je regarde un bluray ma télé bascule automatiquement en mode 24i/sec.

Est ce que ça change le rafraichissement d’écran j’en sais rien mais elle bascule dans ce mode là.

Les saccades tu les avais régulièrement ou pendant un travelling ?



Va voir là mais tu risques de te poser encore plus de question lol :)



http://www.homecinema-fr.com/forum/ecrans-tv-full-hd/judder-saccades-sur-les-tra…





edit : en fait si ta télé n’accepte pas le 24i/sec il faut envoyer le signal en 50 hz.

si elle accepte le 24i/sec il faut envoyer le signal en 24p


votre avatar







OlivierJ a écrit :



Ce qui est ridicule c’est de glisser des mots anglais là où c’est juste la traduction du français. If you want we can entirely speak english but I doubt you will prefer that.







Non ce qui est ridicule, c’est ton argumentaire et l’exemple que tu en donnes avec ta phrase en anglais en attendant comme tu le fais si bien tu m’as pas répondu … T’achètes des CDs ou des DCs ?



Et bon le reste ça tourne en rond comme depuis le début donc bon le trollage a ses limites, je te laisserai avec tes pages wikipedia je suis content que t’ai appris quelque chose ceci dit …


votre avatar







Ideal a écrit :



Non ce qui est ridicule, c’est ton argumentaire et l’exemple que tu en donnes avec ta phrase en anglais en attendant comme tu le fais si bien tu m’as pas répondu … T’achètes des CDs ou des DCs ?







Ah bon. Ce que j’ai voulu montrer c’est que soit tu utilises des mots d’anglais et à ce moment-là on parle anglais entièrement, aucun problème ; sinon je parle français, et je parle naturellement de flou de bougé tout comme je parle de vitesse d’obturation et non de shutter speed. C’est peut-être plus clair comme ça ?



Et je parle de CD comme tout le monde, depuis que ça existe.







Ideal a écrit :



Et bon le reste ça tourne en rond comme depuis le début donc bon le trollage a ses limites, je te laisserai avec tes pages wikipedia je suis content que t’ai appris quelque chose ceci dit …







Tu critiques quelqu’un parce qu’il s’est exprimé correctement en utilisant un mot de français tout à fait légitime, et tu parles de trollage <img data-src=" /> … Elle est bien bonne.



Oui, je suis également content d’affiner mes connaissances et je ne rechigne pas à changer d’avis quand mes connaissances sont incomplètes.



NB: en puriste on ne peut pas dire “ceci dit” mais “cela dit” parce que le terme “ceci” introduit quelque chose qui vient ensuite (cfhttp://www.etudes-litteraires.com/forum/topic740-ceci-dit-cela-dit.html ).


votre avatar







OlivierJ a écrit :



Ah bon. Ce que j’ai voulu montrer c’est que soit tu utilises des mots d’anglais et à ce moment-là on parle anglais entièrement, aucun problème ; sinon je parle français, et je parle naturellement de flou de bougé tout comme je parle de vitesse d’obturation et non de shutter speed. C’est peut-être plus clair comme ça ?



Et je parle de CD comme tout le monde, depuis que ça existe.







Tu critiques quelqu’un parce qu’il s’est exprimé correctement en utilisant un mot de français tout à fait légitime, et tu parles de trollage <img data-src=" /> … Elle est bien bonne.



Oui, je suis également content d’affiner mes connaissances et je ne rechigne pas à changer d’avis quand mes connaissances sont incomplètes.



NB: en puriste on ne peut pas dire “ceci dit” mais “cela dit” parce que le terme “ceci” introduit quelque chose qui vient ensuite (cfhttp://www.etudes-litteraires.com/forum/topic740-ceci-dit-cela-dit.html ).







Bah tu devrais parlé de DCs dans ce cas. <img data-src=" />

Je fais des dessins c’est plus simple…



Bref non je critique pas parce que tu t’exprimerais bien mais je critique le fait que tu bases ton argumentaire sur le délire de “oué t’as fait une faute là” ou “t’as dis un mot anglais ici” tout ça pour esquiver le débat de fond dont on parlait et dont nous sommes loin maintenant… ou ptet que ça te passionne … et dans ce cas damn il en faut pour tous les goûts.



Sinon j’ai jamais dis que tu trollais mais moi je te trollais quand je me suis aperçu que tu discutais tout seul en boucle et donc dans le vide ….

Même de cela, t’es pas capable de t’en rendre compte. Ca en atteint un point tel qu’il serait plus gratifiant pour toi que tu sois entrain de troller plutôt que tourner en rond sans répondre à ce que l’on te dit puis à ce que l’on te troll…



Mais je me répète si grâce à notre conversation tu es d’accord avec le fait que la perception visuelle ne se résume pas à la persistance rétienne comme tu le disais dans ton premier post bah je me répète c’est génial man! et en même osef depuis le temps .

Et je me vais encore me répèter : tu vas encore tourner en rond longtemps ou bien… ? ah oui c’est vrai tu trolles pas donc t’es irrécupérable … <img data-src=" />



Ceci dit t’es vraiment marrant cela étant y a mieux :) ( une réponse vite )


votre avatar







Paladin_Fr a écrit :



C’était quoi comme télé ?

Parce que quand je regarde un bluray ma télé bascule automatiquement en mode 24i/sec.

Est ce que ça change le rafraichissement d’écran j’en sais rien mais elle bascule dans ce mode là.

Les saccades tu les avais régulièrement ou pendant un travelling ?



Va voir là mais tu risques de te poser encore plus de question lol :)



http://www.homecinema-fr.com/forum/ecrans-tv-full-hd/judder-saccades-sur-les-tra…





edit : en fait si ta télé n’accepte pas le 24i/sec il faut envoyer le signal en 50 hz.

si elle accepte le 24i/sec il faut envoyer le signal en 24p





C’est une Pana TX-LF32S20.



Elle accepte bien le 24Hz et je dirais que les saccades étaient présentes lors de traveling mais d’une manière très très prononcée, comme si je lisais une vidéo en mode éco maximale au niveau du processeur.



Mais pour moi, la question reste entière. Le film est tourné en 24hz et j’envoie du 50hz, ce qui est censé être plus, donc plus fluide, non ? De base, j’aurais en effet envie de laisser la sortie HDMI en 24hz…



J’ai jeté un oeil rapide à ton lien avant d’approfondir le sujet, merci ;)


votre avatar

Si c’est du 24 et que tu envoie du 50 ça peut pas marcher car 50 n’est pas un multiple de 24 c’est aussi bête que ça ;)

HDMI 2.0 : nouveaux produits et mise à jour des constructeurs, on fait le point

  • Sony : la gamme X9 aura droit à une mise à jour

  • Panasonic : une nouvelle TV haut de gamme pour apporter le support de l'HDMI 2.0

Fermer