Google (Chrome) chercher à identifier les sites qui se chargent lentement

Google (Chrome) chercher à identifier les sites qui se chargent lentement

Google (Chrome) chercher à identifier les sites qui se chargent lentement

Dans un billet de blog, le géant du Net explique que, « dans le futur, Chrome pourrait identifier les sites se chargeant rapidement ou lentement, via un badge facilement identifiable ». 

« La mise en place peut prendre plusieurs formes et nous prévoyons d'essayer plusieurs options afin de déterminer la plus intéressante pour nos utilisateurs », ajoute Google. Dans un second temps, la société pourrait aussi prendre en compte le terminal et le réseau de l'utilisateur pour afficher ou non une « alerte ».

Les premières expérimentations de Google se portent sur Chrome, qui pourrait afficher un message du genre « Usually loads slow » en cas de chargement long, changer la couleur de la barre de progression et proposer du chargement dans le « menu contextuel des liens » afin d'avoir une information avant de cliquer.

Commentaires (23)


Facebook va prendre cher…


NXI aussi. <img data-src=" />


Pourtant, la méthode pour accélérer le chargement des pages est toute simple :

– ne plus bourrer à mort les pages de tonnes de JavaScript inutile (on a des connexions à 100 Mbps, voire plus, et les pages se chargent toujours aussi lentement qu’à l’époque du 33,6 kbps ? C’est quoi, ça ?!!).

– s’il y a vraiment besoin de JS, le reléguer en fin de code : en effet, traiter le JS bloque le chargement les pages jusqu’à ce qu’il soit terminé. En le mettant à la fin, la page aura le temps de se charger complètement (dans les limites de ce que permet le HTML et le CSS, qui sont déjà largement suffisants dans 95% des cas), avant de passer à l’exécution des scripts.

– Virer les traqueurs et autres pubs (mais ça, on a déjà de quoi les virer, encore que des entreprises violant à dessein le RGPD comme Eulerian obligent à revoir les contre-mesures contre ces m××des).



Et voilà ! Avec ça, plus besoin de recourir à des artifices comme AMP qui ne sont là que pour profiter à Google tout en se faisant passer pour des « versions allégées dans l’intérêt des utilisateurs » (non, comme jamais en ce qui concerne quoi que ce soit de et par Google).

L’hygiène numérique, ça commence dès le code !


Grave surtout les commentaires…


Petit à petit, Google prend le contrôle de la navigation web telle qu’on la connait…



Chrome fait-ci, Chrome bloque ça, Chromium devient le moteur de rendu le plus puissant du web et il est adopté par Edge, il ne reste plus que Firefox en face…



Google fait ramer ses sites ou ne propose pas les mêmes fonctionnalités sur Firefox : essayez Maps, la météo (avec une requête du type Météo Paris) ou encore les captcha, Youtube….


+1

Cette boite est devenu le Micromou en 100 fois plus puissant et 100 fois pire :(

&nbsp;

Et pendant ce temps là, il faut afficher toujours plus rapidement des sites de plus en plus lourds au détriment de la consommation électrique.



Triste époque ou l’on est plus capable d’attendre 2 secondes l’affichage d’une page web :(

&nbsp;


Intéressant.

De nouveaux outils pour les développeurs du coup ?








gg40 a écrit :



au détriment de la consommation électrique.



Triste époque ou l’on est plus capable d’attendre 2 secondes l’affichage d’une page web :(

&nbsp;





La consommation électrique n’a pas grand chose à voir avec&nbsp; la rapidité d’affichage (avec la lourdeur éventuellement)









gg40 a écrit :



Cette boite est devenu le Micromou en 100 fois plus puissant et 100 fois pire :(





Je suis pas d’accord.



Oui ils ont une position dominante, mais c’est clairement différent de l’époque IE6 où le web s’enlisait dans l’immobilisme, zéro innovation, zéro sécurité, zéro changement. C’est con mais il a suffit à Mozilla d’intégrer un bloqueur de popups et des onglets pour relancer la compétition, ce qui montre à quel point c’était la misère.



La politique Google Chrome est clairement différente, c’est une course permanente vers la nouveauté et la sécurité. Si t’es trop lent, t’es mis de côté. A mon avis c’est la raison pour laquelle on a viré les vieux protocoles et quasiment imposé https partout, ce qui est plutôt bien. Je suis pas mécontent qu’ils s’attaquent aux lourdeurs et aux temps de chargement.



La seule fausse note jusqu’à présent (à mon sens) c’est l’attitude vis à vis des bloqueurs de publicité. Pour le moment rien de concret, mais leur fin nous pend au nez.









Obidoub a écrit :



La seule fausse note jusqu’à présent (à mon sens) c’est l’attitude vis à vis des bloqueurs de publicité. Pour le moment rien de concret, mais leur fin nous pend au nez.





Ce qui prouve bien que leur but n’est pas l’amélioration du web en général, mais le profit commercial ! L’amélioration des protocoles et la course à la nouveauté se feraient aussi avec une concurrence saine.



Il aurait fallu écrire «Cette boite deviens le Micromou en 100 fois plus puissant et 100 fois pire».



Car ils ne sont pas tout à fait à leur apogée, mais ils ont déjà une politique de rachat d’entreprise innovante et d’arrêt des projet jugés non rentables.



Concernant l’attitude sur les bloqueurs de publicité, je pense que tu te fourvoies : c’est une part trop importante de leur business pour pouvoir y renoncer.


Je ne sais pas si cela vient du JS, mais je vois de plus en plus de site qui affichent de suite le contenu, puis d’un coup il est masqué pendant plusieurs secondes (à la place il y a des carrés de couleurs grises, qui “réservent” l’emplacement du contenu”, et à la fin le contenu se réaffiche, comme au début.



J’ai encore vu ça ce matin sur le site replay de TF1, constaté sur plusieurs postes(mobiles (donc rien à voir avec ma configuration).


Si tu veux qu’un site soit très réactif au niveau hébergement (au moins) le serveur sur lequel ils est doit être sous utilisé. càd avoir une charge bien moins importante que ce qu’il pourrait supporter si il n’y avait pas cette course à la rapidité.

C’est ce que j’ai voulus dire.


Oui leur but c’est le profil, c’est une entreprise.



Maintenant tu ne peux pas dire qu’ils ne contribuent pas à améliorer le web. Encore une fois regarde l’époque IE6, après avoir tué la concurrence Microsoft s’est reposé sur ses lauriers, ce qui n’est pas le cas de Chrome qui continue de pousser des nouveautés.



Quant à savoir si une concurrence équilibrée aurait permis les innovations, ça se discute. Si aucun des acteurs n’a assez de poids pour faire plier tout le monde, ça rend les changements plus complexes.








Jeanprofite a écrit :



Il aurait fallu écrire «Cette boite deviens le Micromou en 100 fois plus puissant et 100 fois pire».





Je ne suis toujours pas d’accord sur le 100 fois pire, as-tu connu le web en 2002-2003 ? Et le célèbre blog de jvachez qui nous rappelle à quel point c’était la misère. Si tu imagines que Chrome est 100 fois pire, j’aimerais bien savoir pourquoi.





Car ils ne sont pas tout à fait à leur apogée, mais ils ont déjà une politique de rachat d’entreprise innovante et d’arrêt des projet jugés non rentables.



C’est pas forcément anormal qu’une entreprise arrête les services qui ne marchent pas. C’est même parfois sain, ça fait du tri au lieu de s’acharner inutilement.





Concernant l’attitude sur les bloqueurs de publicité, je pense que tu te fourvoies : c’est une part trop importante de leur business pour pouvoir y renoncer.



Peut-être mais pour le moment il n’y a aucune preuve ni élément concret.



Utiliser un CDN, du cache, du scaling, du code optimisé, ça va bien plus loin qu’une simple question de charge CPU.


Oui j’ai pas mal de client qui utilisent des CDN. Mais les serveurs de CDN doivent aussi être rapide… ,non ?

&nbsp;

Par contre on est d’accord sur l’optimisation et tout ça… Mais 99% des mes sites héberges sous des Wordpress / joomla/prestashop. Personne chez les petits acteurs n’optimise de tel moteur.

Une page visionnée sur un Prestashop, c’est 500 requêtes sur la base de données.



Le principe de base de faire tourner des équipements qui ne font pas grand chose pour que cela aille vite quand il se passe quelque choses. Et bien c’est du gaspillage d’énergie sur l’hôtel de la rapidité.








Jarodd a écrit :



Je ne sais pas si cela vient du JS, mais je vois de plus en plus de site qui affichent de suite le contenu, puis d’un coup il est masqué pendant plusieurs secondes (à la place il y a des carrés de couleurs grises, qui “réservent” l’emplacement du contenu”, et à la fin le contenu se réaffiche, comme au début.



J’ai encore vu ça ce matin sur le site replay de TF1, constaté sur plusieurs postes(mobiles (donc rien à voir avec ma configuration).





Ça vient surtout du système de CDN (Content Delivery Network) : dans la pratique, les médias intégrés aux pages sont stockés dans un autre sous-domaine du site, et ne sont appelés qu’à la toute fin du chargement. Ça permet au moins d’avoir tout de suite les informations et la structure de la page, en attendant que les images qui la composent soient affichées à leur tour.









Trit’ a écrit :



– Virer les traqueurs et autres pubs (mais ça, on a déjà de quoi les virer, encore que des entreprises violant à dessein le RGPD comme Eulerian obligent à revoir les contre-mesures contre ces m××des).







J’ai suivi ça ce WE, avec du pop Corn. Passionnant.



Mais j’ai le contenu, il disparaît, pour réapparaître 10s plus tard. C’est quoi l’intérêt, vu qu’il était dispo à la 1e seconde ?

Je ne parle pas seulement des images, même les textes et les liens disparaissent, pourtant ce n’est pas sdu contenu si lourd à héberger qu’il faut l’héberger sur un service tiers.








Jarodd a écrit :



Mais j’ai le contenu, il disparaît, pour réapparaître 10s plus tard. C’est quoi l’intérêt, vu qu’il était dispo à la 1e seconde ?



Ça vient pas de ton cache qui était obsolète, ça ?



Je n’ai pas de cache activé (nav. privée + 0 octet dédié au cache/cookies + pas d’historique).








gg40 a écrit :



Et pendant ce temps là, il faut afficher toujours plus rapidement des sites de plus en plus lourds au détriment de la consommation électrique.



Triste époque ou l’on est plus capable d’attendre 2 secondes l’affichage d’une page web :(





Ce n’est pas normal qu’une page Web mette plus de 2 ou 3 secondes pour s’afficher, surtout avec une bonne connexion.



En 2012 j’avais vu les résultats d’un concours d’optimisation d’une page Web, c’était impressionnant. Je crois que c’était à partir d’une page du site Fnac. Certains navigateurs passaient de 17 secondes à 2.







v1nce a écrit :



La consommation électrique n’a pas grand chose à voir avec la rapidité d’affichage (avec la lourdeur éventuellement)





Bien sûr que la consommation électrique est liée au temps de chargement, ça implique soit plus de transfert réseau (ça consomme forcément), soit plus de charge CPU, soit les 2 (de nos jours c’est en mutli-tâche dans un navigateur). De toutes façons ça consomme du courant pendant plus longtemps, le CPU met plus de temps à revenir en “idle”.







Jarodd a écrit :



Mais j’ai le contenu, il disparaît, pour réapparaître 10s plus tard. C’est quoi l’intérêt, vu qu’il était dispo à la 1e seconde ?

Je ne parle pas seulement des images, même les textes et les liens disparaissent, pourtant ce n’est pas sdu contenu si lourd à héberger qu’il faut l’héberger sur un service tiers.





J’ai déjà vu ça aussi.

Possible que ce soit l’effet d’un script JS qui est exécuté une fois chargé (après chargement du texte et des CSS et images).



Fermer