Edge Canary sait faire de l’upscaling de vidéo en local

Edge Canary sait faire de l’upscaling de vidéo en local

Edge Canary sait faire de l’upscaling de vidéo en local

Microsoft a annoncé que la dernière préversion de son navigateur savait réaliser de l’upscaling sur des vidéos de faible qualité, c’est-à-dire simuler une montée en définition. 

L’éditeur dit avoir remarqué qu’un tiers des vidéos lues dans Edge était de qualité 480p ou inférieure. Il peut y avoir plusieurs raisons à cette faible qualité, par exemple une bande passante faible ou même le format d’origine.

Pour que la fonction s’active, il faut remplir plusieurs conditions, notamment posséder un GPU relativement récent : au moins une série RTX 20 chez NVIDIA ou RX5700 chez AMD. Sur un ordinateur portable, il ne faut pas être sur batterie et basculer manuellement vers le GPU dédié, s’il existe. La bascule automatique sera prise en charge plus tard.

Point important, cette technologie – nommée Video Super Resolution (VSR) – ne peut fonctionner que sur des vidéos dépourvues de DRM et dont la qualité est inférieure à 720p.

Elle est actuellement déployée sur 50 % des ordinateurs équipées d’Edge Canary. Il est nécessaire d’activer un flag pour en profiter : edge://flags/#edge-video-super-resolution.

La question que beaucoup se poseront est de savoir si la VSR est réellement pertinente, à l’heure où une frange croissante de la population y regarde à deux fois avant de dépenser de l’énergie. On ne sait rien pour l'instant de la hausse de consommation induite par cette technologie.

Commentaires (15)


Je crois avoir vu dans une promotion par un Youtuber qu’Opera le fait aussi. Je n’ai pas plus de détails (je laisse la sponso mais j’en écoute rarement les détails).



Dans tous les cas, qu’est-ce qui est le moins énergivore : transmettre un flux 720p ou transmettre un flux 480p et faire de l’upscaling en utilisant les shaders de la CG ?
(perso, c’est la question que je me pose, plutôt que celle qui est suggérée en conclusion)


A l’échelle individuelle, c’est certain, c’est la 2nde option qui est la moins énergivore. L’IA est un processus peu gourmand en énergie pour l’utilisation d’un modèle, l’étape énergivore étant l’apprentissage, elle n’est faite qu’une seule fois (sauf ré-apprentissage).



Par contre, à l’échelle de plusieurs millions d’utilisateurs la question redevient très pertinente, et je ne m’avancerais pas dans une réponse hasardeuse. Difficulté croissante pour tenter d’y répondre : le lieu où est stocké la source de la vidéo. Le bilan du coût du transport n’est pas le même si le flux vient d’un cache français ou européen, ou s’il vient tout droit d’un datacenter aux U.S.


Dommage de ne pas indiquer que ce n’est pas un simple traitement vidéo mais une AI qui tourne pour améliorer la vidéo, d’où probablement le nombre restreint de GPU supportées.



Je ne comprenais pas ce que cela faisait de plus que l’upscaling “standard” d’un driver vidéo.



Ainsi, je comprends mieux la remarque sur la dépense d’énergie.



Mais qu’est-ce qui est pire : utiliser cette fonction ou jouer avec ChatGPT/Bing pour tout savoir sur les œufs de vache ?



anagrys a dit:


Dans tous les cas, qu’est-ce qui est le moins énergivore : transmettre un flux 720p ou transmettre un flux 480p et faire de l’upscaling en utilisant les shaders de la CG ? (perso, c’est la question que je me pose, plutôt que celle qui est suggérée en conclusion)




En plus l’Upscaling qu’on utilise niveau TV ou lecteur bluray quand on lit un DVD existe depuis belle lurette, est déjà bien efficace, se fait à énergie limitée (un lecteur bluray ça consomme 20W en tout…)
Alors sortir la RTX pour ça, ça me paraît overkill.


L’upscaling classique reste assez basique. C’est un mélange d’upscaling (augmentation de la résolution) et de sharpening (réduction du flou/augmentation du détail). Le programme n’a aucune connaissance de ce qu’il y a à l’image.



Ici, vu le matos demandé, c’est clairement un réseau de neurone derrière, une “IA” comme les gens du marketing disent. Ce genre de technologie va avoir plutôt tendance à interpréter le contenu de l’image afin de réaliser l’upscaling. Pour donner un exemple très simplifié, s’il reconnait dans l’image d’origine une zone avec du pelage, il va essayer de créer un rendu “pelage” en sorti d’upscaling.



Après, aujourd’hui, les SoC ARM intégre déjà souvent du matos pour faire du réseau de neurone et par exemple que le Nvidia Shield utilise surement une techno similaire très basique pour faire de l’upscaling et je ne serais pas étonné que les TV moderne possède leur propre modèle.



NVidia a présenté il y a quelque semaine sa première version “Video Super Resolution” mais d’après les premiers tests, ça marche, mais ce n’est pas encore ça. Après, c’est quelque chose qui peut être améliorable, la technologie derrière offrant une infinité de possibilité de configuration.



Enfin, pour la consommation : bonne question. Aujourd’hui, ça demande des grosse carte graphique, surement pour des histoires de version de bibliothèque. Cependant, les processeurs actuels tendent de plus en plus à ressembler à des SoC et integre de plus en plus de module. Je sais aussi qu’intel travaille pas mal sur le sujet, je ne serait pas étonné de voir intégrer ce genre de technologie directement dans nos processeur. Donc, aujourd’hui, oui, vu la carte, ça ne doit pas être super pour la batterie, mais demain, c’est encore à voir.



L’éditeur dit avoir remarqué qu’un tiers des vidéos lues dans Edge était de qualité 480p ou inférieure. Il peut y avoir plusieurs raisons à cette faible qualité, par exemple une bande passante faible ou même le format d’origine.




Ou le code javascript qui détectent mal la résolution optimale (fenêtre vs vidéo) . J’ai observé que c’est très souvent la faute des extensions, notamment les adblocker.




anagrys a dit:


Je crois avoir vu dans une promotion par un Youtuber qu’Opera le fait aussi. Je n’ai pas plus de détails (je laisse la sponso mais j’en écoute rarement les détails).




Le mode LUCID de Opera c’est simplement un filtre de netteté (sharp) appliqué sur l’image.
Ce n’est pas de l’upscaling “intelligent” (apprentissage ou reconstruction).


Alors si on veut balancer l’argument écologique, il faut comparer la chaine complète :




  • soit on balance un flux en HD, et on compte combien d’énergie a été nécessaire pour transférer un fichier de grosse taille, puis le décoder et l’afficher sur le client

  • soit de l’autre coté on compare le cout énergétique d’un transfert d’un fichier bien plus léger entre la source et le client (avantageux énergétiquement), mais on consomme de l’énergie sur le client pour upscaler (ca, c’est moins bon dans le bilan)



Rien ne dit que l’une ou l’autre solution est meilleure, mais il ne suffit pas de regarder la consommation à l’échelle du client pour trancher.



La question que beaucoup se poseront est de savoir si la VSR est réellement pertinente, à l’heure où une frange croissante de la population y regarde à deux fois avant de dépenser de l’énergie. On ne sait rien pour l’instant de la hausse de consommation induite par cette technologie.




Est-ce qu’on pourra avoir ne serait-ce qu’une journée sans news nous invitant à faire pénitence d’utiliser de l’énergie (décarbonée) ? L’autoflagelation permanente et mal placée (la conso électrique n’est pas un problème) devient insupportable. La rédaction est sous influence d’une secte malthusianiste ? L’Ademe a pris des part dans INpact MediaGroup ?


+42


Il est probable qu’ici ce soit juste un soucis de cout d’énergie ou de pénurie et pas de pollution.


L’article ne vise ni l’écologie ni l’économie en fait. Chacun verra selon ses priorités car dans les deux cas, ça a un impact.



Pour ma part je compte remplacer ma 1070 TI par du matériel récent, mais la hausse de la consommation éléctrique me fait réfléchir car hélas les cartes graphiques sont partis pour en demander toujours davantage, au point qu’il a même fallu remanier le standard ATX (v3).



Si on ajoute à cela donc une potentielle externalisation de l’upscaling de vidéos chez le consommateur comme c’est le cas ici, la facture électrique va être salée.



Tant que ça reste une option à activer manuellement, ça ira. Mais je ne doute pas que ça changera très vite.


Marrant que cette news tombe aujourd’hui, je découvrais le VSR d’Nvidia hier, qu’il faut aller activer dans les pilotes et qui supporterait Chrome et Edge ainsi que, théoriquement, tout navigateur basé sur Chrome.



J’ai fait quelques essais rapides et purement subjectif : j’ai eu du mal à distinguer du 1080p VSR de la véritable 4K Youtube, mais c’était une vidéo que l’on pourrait qualifier de “vlog” (vidéaste qui parle face caméra), je ne l’ai donc pas mise en réelle difficulté.



Contrairement à ce qu’indique l’article, Nvidia indique dans sa FAQ que les vidéos sont traitées à partir du moment où la vue actuelle est plus grande que la définition de la vidéo, sans parler de limite à 720p, ce qui me fait dire que ça n’est pas la même fonctionnalité.




(reply:2122821:psikobare) Amen ! Passant pas mal de temps dans les Paramètres de Windows 11 récemment suite à l’acquisition d’une nouvelle tour, les injonctions variées à modifier tel ou tel paramètre pour “réduire mes émissions de carbone” m’exaspèrent au plus haut point, tout comme ma TV LG qui juge bon de me rappeler à chaque fois que j’y touche que désactiver le mode économie d’énergie “peut augmenter la consommation électrique du téléviseur” (no shit, Sherlock!), avertissement qui n’était pas là quelques mois en arrière.




Saymonz a dit:


tout comme ma TV LG qui juge bon de me rappeler à chaque fois que j’y touche que désactiver le mode économie d’énergie “peut augmenter la consommation électrique du téléviseur” (no shit, Sherlock!)




Il est bien plus facile d’ajouter un tel message que faire une télé qui démarre très rapidement et qui éviterait d’utiliser ce mode veille consommateur d’énergie.



Va falloir que je chronomètre, mais ma télé met un temps fou à démarrer “à froid”, c’est incompréhensible. Enfin, si, ça ne l’est que trop, rien n’est optimisé dans la phase de démarrage d’un système Androïd Et comme il y a ce mode veille qui permet un démarrage rapide, ils ne font aucun effort.



(reply:2123250:fred42) Ah non, il s’agit d’un réglage à 3 niveaux qui joue principalement sur la luminosité de l’image, je l’utilise selon l’usage pour la moduler sans toucher aux réglages des modes d’image, le plus souvent il est en automatique, ce qui semble s’adapter à l’éclairage ambiant, mais je le désactive quand je veux le plein potentiel de la dalle, ou le pousse au max quand je juge probable un endormissement devant.




J’éteignais systématiquement tout mon matos TV/hi-fi via la multiprise il n’y a pas si longtemps, au moins la nuit, mais depuis que j’ai une TV OLED, je la laisse tourner car elle “rafraichit” automatiquement les pixels de la dalle pour éviter le marquage pendant la veille. Maintenant, j’ai également un ampli connecté, et j’ai cédé à la facilité de pouvoir l’allumer via Spotify à distance, je suis un bien mauvais élève, je l’admet.



D’un autre côté, ça fait 5 ans que j’ai pas été à plus de 200km de chez moi, et j’ai passé la majorité de ce temps sans véhicule, alors ça va, j’ai pas trop mauvaise conscience.


OK, je n’avais pas compris de quoi il s’agissait.


Fermer