Connexion
Abonnez-vous

Mise à jour du Googlebot

Mise à jour du Googlebot

Le 10 mai 2019 à 09h18

C'est cet outil qui visite les pages web afin qu'elles soient référencées par le moteur de recherche. Il exploite désormais l'un des derniers moteurs Chromium : la version 74.

Une mise à jour d'importance, Google évoquant plus d'un millier de nouveautés, comme la prise en charge des versions récentes de JavaScript et ECMAScript 6, les API Web Components ou une meilleure gestion du lazy loading.

Une série de vidéos explique la manière dont est géré JavaScript lors du référencement.

Le 10 mai 2019 à 09h18

Commentaires (10)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Peur du déclassement ? N’attendez-pas ! Augmentez votre visibilité sur le web grâce à “SEOToolMaster 2019” spécialement optimisé pour le nouveau robot Googlebot v74. Contactez-nous rapidement pour profiter d’un tarif exceptionnel.



marketing ! marketing ! marketing !

votre avatar

+1

Avec des serveurs toujours plus gros et consommateurs, car les visiteurs sont (soie disant d’après Gogole) incapable d’attendre plus d’une seconde chaque page de ton site. Même si c’est un prestashop avec des millier de références…

Sites qui d’ailleurs balancent une tonne de javascripts inutiles qui vont bouffer du proc sur les machines client…



Triste <img data-src=" />

votre avatar

Oui attendre le chargement a un impact important, et surtout dans le commerce en ligne les temps de chargement ont un impact direct sur le chiffre d’affaire.




  Perso j'ai plusieurs fois abandonné telle boutique car la page du concurrent avais déjà chargé depuis plusieurs secondes.. Sans parler de toutes les fois ou c'était inconscient/involontaire (on regarde la page du concurrent qui a déjà chargé "en attendant" et on oublie l'autre).        






  Google fonde ses pratique sur ses données, pas pour le plaisir de faire chier les dev.       






 Si le site est correctement codé le nombre de référence ne devrait pas changer grand chose au temps de chargement (la quasi totalité des visites devraient tapper dans le cache).. Google a des milliers de milliards de références dans son moteur de recherche..
votre avatar

Et oui je sais… Je dénonce le comportement des internautes.

Y-a quand même un gap entre attendre 2-3 secondes et 10-20 secondes.



Les dev en question ne font pas de dev, ils assemblent des modules avec plus ou moins de bonheur.



Je m’occupe d’hébergement web et ça me désole de monopoliser un dédié pour un seul site ecommerce.





  • Le SEO : C’est trop lent

  • Le client : je perd du chiffre

  • Le presta : Il faudrait optimiser le code mais on va plutôt migrer sur un plus gros serveur.

  • Moi : J’exécute en me demandant mais pourquoi chaque page du site fait plus de 600 requetes SQL à chaque page.



    Pour moi internet doit aussi se mettre à l’écologie et ça en fait parti (avec le thème sombre, le JS uniquement si il est indispensable…).

votre avatar

Je rejoins wagaf : par exemple, pour les news, j’ouvre plusieurs “journaux” concurrent sur la même news via google news, si une des page mets trop longtemps pour se charger où qu’elle me fait chier pour X ou Y raison, je ferme, je passe à la suivante.

De manière général, une UI qui n’est pas réactif donne une mauvaise expérience utilisateur. Les pire étant les bouton dont on ne sais qui si le clic a bien était pris en compte (les boutons destructeurs de souris).

votre avatar

Il était temps !



On va enfin pouvoir dégager les polyfills/lib qu’on était obligé de garder sur les SPA juste pour Google bot…

votre avatar







gg40 a écrit :



Les dev en question ne font pas de dev, ils assemblent des modules avec plus ou moins de bonheur.



Je m’occupe d’hébergement web et ça me désole de monopoliser un dédié pour un seul site ecommerce.





  • Le SEO : C’est trop lent

  • Le client : je perd du chiffre

  • Le presta : Il faudrait optimiser le code mais on va plutôt migrer sur un plus gros serveur.

  • Moi : J’exécute en me demandant mais pourquoi chaque page du site fait plus de 600 requetes SQL à chaque page.



    Pour moi internet doit aussi se mettre à l’écologie et ça en fait parti (avec le thème sombre, le JS uniquement si il est indispensable…).





    J’ai été devs de plugins indépendant pendant 5 / 6 ans pour le commerce électronique ( prestashop ) et c’est vite devenue une vrai horreur. En gros tout les ans et demi le cms reçoit une énorme MAJ qui casse systématiquement TOUT les modules.



    Du coup tu est obligé de faire une mise à jours de compatibilité pour chaque modules, en partant d’une belle page blanche sans documentation et ou parfois l’installation va aussi coincer. Obligé d’analyser le code des modules natif et d’adapter ton code en conséquence.



    Vers la fin j’avais 20 modules en vente avec en moyenne la moitié / un tiers du temps de création pour être compatible avec la nouvelle version, ce qui me prenais quasiment un an. Pas le temps de faire d’optimisation / nouvelle fonctionnalité, sinon le temps de mise à jours dépassais le temps de mise à jours du cms. Alors qu’au début quand je n’avais que 4 modules en vente, j’enchainais les mise à jours d’optimisation / nouvelle fonctionnalité.



    Au final j’ai laissé tombé et en moins d’un an je n’ai plus vendu aucun modules. Certains ont reppris la relève en pondant des “clones” mais vu que devs “débutant” le code est absolument dégueulasse. Et peut d’entre eux continueront sur le long terme car les mise à jours “c’est trop casse couille”.



    Du coup t’aura toujours du code de merde car personne ne veut lâcher 300€ pour un module et encore moins 20.000€ pour ouvrir une boutique qui à 60% de chance de fermer en moins d’un an.



    C’est d’ailleurs pour ça que pas mal d’artisans préfère aller sur des plateforme du genre etsy même si certains fonctions sont très limités et ne permettent pas de tout vendre / personnaliser.

    &nbsp;

    Et si tu prend la sécurité en compte, tu sera plus ou moins obligé d’installer la mise à jours du cms ainsi que le serveur ce qui reviens plus ou moins à repayer un site complet tous les deux ans.



    &nbsp;C’est encore pire pour ceux qui créent des thème, bien souvent obligé de repartir from scratch tellement il y à de changements, changement JAMAIS listés lors d’une mise à jours.



    ps : En général la documentation détaillée sort un an après la sortie officielle, ce qui est bien trop long et devrait surtout sortir au moins 6 mois avant la sortie d’une mise à jours.


votre avatar

Merci beaucoup pour ce retour très instructif sur l’écosystème de Prestashop.

peut être que le passage sous Symfony va améliorer un peu les choses…

votre avatar







gg40 a écrit :



Merci beaucoup pour ce retour très instructif sur l’écosystème de Prestashop.

peut être que le passage sous Symfony va améliorer un peu les choses…





Complément d’information :



. J’ai vu des “boites” au top des ventes fermer du jours au lendemain car les modules en vendus sont devenir natif dans ps et je doute qu’ils ont touché le moindre centime la dessus.

. La politique de ps interdit les “clones”, ton module doit impérativement proposer quelque chose de plus

. Une sous version ( passer de la 1.5 à la 1.5.5 ) peut très bien casser l’intégralité du code.

. 30% sur chaque vente est énorme face à tout ça.

. Je connais pas Symfony mais je suppose qu’il sera lui aussi mis à jours et poussé très vite dans une release.



Personnellement ce qui m’a surtout fait lâcher l’affaire à propos de ps c’est la volonté de l’équipe de systématiquement pousser les mise à jours pour les clients. A l’époque la version 1.6.5 était vraiment finie à la pisse et bourré de bug et pourtant mise en avant dans la page d’accueil.



Du coup tout les “petits” webmasters installaient direct cette version et tous les devs de module ce faisaient spam non stop “ quand votre machine sera compatible ” et entre les bugs et le temps de faire une mise à jours les webmaster finissaient par installer une ancienne version, perte de temps et d’argent pour leur client, car c’est pas un simple blog à configurer en trois clics.



Après pour avoir testé différentes tranche de prix et en ayant accédés à pas mal de factures de prestataire le minimum syndical était systématiquement acheté et bien souvent c’était des module made in prestashop entre 150€ et 300€ et que ça sois au niveau du code / fonction / design c’était vraiment du basique et certains n’hésitaient pas à pirater.


votre avatar







gg40 a écrit :



Avec des serveurs toujours plus gros et consommateurs, car les visiteurs sont (soie disant d’après Gogole) incapable d’attendre plus d’une seconde chaque page de ton site. Même si c’est un prestashop avec des millier de références…





On estime qu’au-delà de 3 secondes, c’est trop long (dans les essais d’évaluation d’un site).



Et à mon avis, aucun site ne devrait répondre en plus de 3 secondes. Il y a tous les sites bien faits qui en sont capables, et je ne suis pas sûr qu’il faille des serveurs énormes derrière.



J’ai été missionné parfois pour améliorer la réactivité de sites Web, internes à des entreprises ou administrations, et tu vois vite ce que tu peux modifier pour accélérer le bousin (souvent en commençant par les requêtes SQL), y compris configurer le serveur pour que les images soient envoyées avec la métadonnée de persistance (genre 1 h ou plus), ce qui évite les requêtes inutiles de la part des navigateurs (le “if-modified-since” et la réponse 304 ont un coût puisque c’est un aller-retour) et améliore pas mal la rapidité.

J’avais lu des articles intéressants qui relataient des concours d’amélioration (il s’agissait de prendre le code statique ou semi-statique d’un site existant plutôt lent, genre 15 s à tout charger), et les raisons qui faisaient que certains avaient réussi à descendre ça sous les 2-3 secondes.







wagaf a écrit :



Oui attendre le chargement a un impact important, et surtout dans le commerce en ligne les temps de chargement ont un impact direct sur le chiffre d’affaire.

[…]

Si le site est correctement codé le nombre de référence ne devrait pas changer grand chose au temps de chargement (la quasi totalité des visites devraient tapper dans le cache).. Google a des milliers de milliards de références dans son moteur de recherche..





Bien d’accord.



En bonus, de nos jours rien qu’avec un bloqueur de publicités et de trackers divers, on améliore bien la réactivité de la navigation.


Mise à jour du Googlebot

Fermer