Chrome veut charger plus rapidement les pages avec l’algorithme Brotli
Plus vite, pour moins cher
Le 21 janvier 2016 à 15h20
3 min
Logiciel
Logiciel
Google se prépare à mettre en place un nouvel algorithme de compression. Baptisé Brotli, il doit permettre de réduire le volume de données échangées, tout en nécessitant moins de puissance de calcul. Il devrait également débarquer dans Firefox.
En septembre dernier, Google présentait son algorithme de compression Brotli. Sa mission, remplacer l’actuel algorithme, Zopfli, avec des avantages certains à la clé. En moyenne, la compression des données serait plus efficace de 20 à 26 %, tout en étant moins gourmand en ressources processeur. Traduction, le chargement des pages en serait d’autant plus accéléré, particulièrement sur les appareils mobiles.
Une arrivée prochaine
Il n’est pas question pour l’instant de reléguer Zopfli au rang des technologies abandonnées, car cet algorithme est actuellement utilisé dans de nombreux produits. Mais Brotli, qui se présente finalement sous la forme d’un nouveau format de données, ressort gagnant dans de nombreux tests, comme indiqué dans une étude publiée par Google, face à d’autres algorithmes tels que LZMA et LZHAM.
On sait désormais que la présence de Brotli dans Chrome est proche. Ilya Grigorik, ingénieur chez Google, a ainsi indiqué que la technologie était prête. Elle a été testée avec « grand succès » sur les polices web utilisant le format WOFF 2.0 (Web Open Font Format 2). Cependant, il faut préciser qu’en l’état actuel des choses, Brotli ne peut être utilisé que via des connexions HTTPS.
Tous les navigateurs basés sur Chromium, ainsi que Firefox
Son arrivée dans Chrome signifie son inclusion dans Blink, le moteur de rendu de Google issu d’un « fork » de Webkit. Toutes les variantes de Chrome en profiteront donc, de même que tous les navigateurs basés sur Chromium, dont le plus connu est Opera. Depuis peu, on sait que l’on pourra ajouter également Brave à la liste. Mais, comme indiqué par Ilya Grigorik, Brotli est également supporté par l’actuelle version 44 de Firefox (avec la même restriction aux connexions sécurisées). Du côté d’Edge, l’implémentation est en cours d’examen, tandis que Safari prévoit de supporter le standard WOFF 2.0, qui utilise Brotli.
Pour l’instant, on ne sait pas cependant quand l’algorithme fera réellement son apparition dans Chrome. La technologie ayant l’air fin prête, elles pourront donc arriver dans la version 49 ou 50. En attendant, il est déjà possible de la tester dans la version Canary du navigateur (qui s’installe séparément de la mouture stable), via l’activation du flag chrome://flags#enable-brotli.
Chrome veut charger plus rapidement les pages avec l’algorithme Brotli
-
Une arrivée prochaine
-
Tous les navigateurs basés sur Chromium, ainsi que Firefox
Commentaires (38)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 21/01/2016 à 15h25
C’est moi où pour le moment ça ne marche que sur des polices hébergées sur un serveur HTTPS ?
Si c’est le cas, c’est plutôt limité comme utilisation !
Le 21/01/2016 à 15h27
J’avoue ne pas avoir bien compris comment ça marche, c’est comme le mode turbo de opéra ? La page est téléchargée sur les serveurs de Google, compressée et envoyée au client? Parce que J’aime pas trop l’idée que Google stocke toute mes pages en cache…
Le 21/01/2016 à 15h33
Le 21/01/2016 à 19h23
Le 21/01/2016 à 19h32
nginx le supporte déjà via un module publié par Google. Apache devrait suivre assez rapidement, s’il ne le supporte pas déjà.
Le 21/01/2016 à 19h36
Le 21/01/2016 à 19h58
Le 21/01/2016 à 20h35
" /> C’est vrai en plus, le coup de vieux ! " />
Le 21/01/2016 à 20h40
“Je n’ai pas vocation à financer à moi tout seul les sites de merde putaclic”
Tu m’étonnes, t’es plutot un partisan du tougratui parce que les questions de financements ne sont qu’un gigantesque complot des multinationale aux dents longues.
Je le sais bien, je l’ai lu sur des sites (gratuits) de l’internet aussi
Le 21/01/2016 à 21h51
Le 22/01/2016 à 00h29
Le 22/01/2016 à 09h34
Le 22/01/2016 à 19h22
Je suis le seul à avoir pensé à Super Brotli contre SanGoku ? " />
Le 23/01/2016 à 07h18
Tu parles comme si il n’y avait que 2 catégories de sites: les bons et les mauvais, noir ou blanc. Occultant toutes les nuances de gris…
Le 23/01/2016 à 11h54
L’accès à internet est (généralement) payant, tu payes ton FAI, et le FAI paye et maintient le réseau (normalement). Les serveurs doivent être loués aussi, en plus du coup du FAI (intégré avec les serveurs dans les datacenters). Donc Internet n’est pas gratuit, loin de là.
Le 23/01/2016 à 11h55
Le 23/01/2016 à 15h54
Tu paye ton accès à internet, pas ton accès aux sites que tu visites.
Le 23/01/2016 à 15h59
Vive les œillères.
Si je suis ton raisonnement (vendre aux annonceurs == afficher de la pub), tu commentes actuellement sur un site qui :
Impossible ? " />
Le 23/01/2016 à 18h03
Le 23/01/2016 à 20h57
Ce sont les abonnés qui ont demandés cette option.
J’utilise, comme beaucoup d’internaute, un bloqueur de pub et ghostery, mais je laisse la pub sur Nxi (Que je sois abonné ou non). J’apprécie d’avoir le choix et de les rénumérer activement et de laisser la pub sauf durant les opérations intrusives avec habillage par une marque.
C’est cool d’avoir le choix et de ne pas rester dans une logique binaire.
Pour répondre à ma question du départ, non je ne souhaite pas que la pub disparaisse sans alternative un minimum viable. Je ne tiens pas à financer activement tous les sites que je visite, et il m’arrive de visiter des sites putaclic (sic) qui ne me dérange pas avec mes extensions actuelles.
Le 23/01/2016 à 22h01
Le 24/01/2016 à 09h40
Le 21/01/2016 à 15h33
C’est juste un autre algorithme de compression entre le serveur et le butineur. Ce que ne dis pas la news, c’est si les serveurs web ‘classiques’ supportent cette compression.
Le 21/01/2016 à 15h36
brotli:11 reste très lent par rapport à Deflate 9: le gain est ridicule (25%) par rapport au temps nécessaire pour compresser qui est 50 fois plus long. et par rapport à Deflate 1: un gain de 48% pour une durée 244 fois plus longue !!!
Après si on compare à brotli:1 en le gain n’est que de 10%
C’est bien beau le débit de décompression, mais le serveur va en prendre un coup, et il ne pourra jamais compresser les pages dynamiques et uniquement ce qui est statique (en le gardant en cache). Et aujourd’hui il y a quand même pas mal de chose dynamique…
Le 21/01/2016 à 15h57
Le 21/01/2016 à 16h00
Il faut comparer brotli:1 à deflate:1 et brotli:9 à deflate:9
On est d’accord que brotli:11 doit être réservé à des usages très spécifiques (en l’état actuel)
Le 21/01/2016 à 16h08
Ben justement, en lisant la news j’ai l’impression qu’on ne peut pour le moment l’utiliser qu’en HTTPS avec des polices de caractères
Elle a été testée avec « grand succès » sur les polices web utilisant le format WOFF 2.0 (Web Open Font Format 2). Cependant, il faut préciser qu’en l’état actuel des choses, Brotli ne peut être utilisé que via des connexions HTTPS.
Le 21/01/2016 à 16h12
Le 21/01/2016 à 16h18
Tous ces efforts pour gagner des pouillièmes de ms alors qu’en virant simplement la pub et les multiples traqueurs on divise par 10 le temps de chargement de la plupart des pages web … " />
Le 21/01/2016 à 16h18
Il n’y a pas de facteur de “qualité” pour la décompression, cela n’a pas de sens. Il fait juste au plus vite
Le 21/01/2016 à 16h26
+1
mais viré la pub et les traceurs c’est pas google qui va le proposé (google adsense, google analytics ^^ )
Le 21/01/2016 à 16h42
Si Google fermait sa régie pub ce serait clairement plus efficace que n’importe quelle compression.
Pas de pubs = pas de ciblage = pas de trackers = panne des sites web dépendants de googleapis.com = fin du monde.
C’est sûr qu’on économiserait de la bande passante ! " />
Le 21/01/2016 à 17h59
Supprimer la pub est possible mais êtes vous prêt à avoir un web payant pour tout ?
Le 21/01/2016 à 18h16
Le 21/01/2016 à 18h40
Quand j’ai fait mes débuts sur le net il y a presque 20 ans (avec un modem 14400bauds et une facturation exorbitante à la minute " />) il n’y avait quasi pas de pubs et pourtant aucun site n’était payant et ça n’empêchait pas pour autant d’avoir souvent du contenu autrement plus intéressant que les “putaclics” et autres publireportages sponsorisés qui constituent 95% du contenu web d’aujourd’hui.
La plus grosse différence c’est qu’à l’époque ça n’était pas encore pourri par les grosses multinationales, les agences et régies publicitaires et autres parasites du même acabit. (ils n’avaient pas encore réalisé qu’il y avait des montagnes de fric facile à ramasser)
Le 21/01/2016 à 18h51
La seule différence ? Pas vraiment non !
Il y a 20 ans les contenus étaient en tres grande majorité textuels, et les débits ne permettaient pas non de faire des folies questions médias. Pas de Youtube, pas de Twitter/Facebook avec leur flots incessants de données et Photos haute résolution (je ne parle pas ici de leur interêts).
Il n’y avait également pas ou très peu de professionalisme. Tenir un site coute de l’argent a moins de tenir un blog “quand tu en as envie”. Faire des tests, reportages, et compte rendus coute cher.
Et puis bon, il y a 10 ans, une page webc’était ça
En 1990 c’était plus proche du minitel…
Si le contenu que tu trouves est pourri tu ne peux t’en prendre qu’a toi même " />
Le 21/01/2016 à 18h51
Combien ?
Par ce que ça en fait des sites à financer…
Le 21/01/2016 à 18h59
Pour tout carrément ? la suppression de la publicité changerait le web c’est sûr mais de la à tout rendre payant je ne crois pas.
Le web est constitué de différents types d’acteur, sans doute la galaxie Pure machin aurait beaucoup à perdre et gmail deviendrait tout de suite plus chère mais il y à d’autre fournisseur de mail que gmail, à commencer par nos propres FAI, et pure people sera avantageusement remplacé par n’importe qu’elle pisseuse de 15ans faisant sa page perso chez free (je ne doute pas que ce genre de service reste compris dans nos abonnement internet, surtout débarrassé de leurs concurrents actuellement financés par la pub)
Pour les pros qui vivent de leur propre business la question ne se pose même pas, tous les commerces en ligne resteraient où ils sont. Idem pour les services publiques.
Enfin il y à tout le reste, est ce que NI survivrait ? Peut-être. Mais si il ne survit pas je ne pense pas que le web se vide de toutes sources d’info, il y aura des personnes prêtent à payer 5e/mois qui créeront leur blog pour partager leurs centres d’intérêts, et au lieu de quelques gros sites d’info ce seront des milliers de petites ‘plate-formes’ qui relaieront l’information.
Évidement tous ça n’est que spéculation mais je pense que c’est une alternative bien plus plausible que le “tout payant”. En tout cas je suis prêt à tester un web sans pub, je pense que ce serait très intéressant.