Search Console de Google : le point sur les nouveautés de 2019 Inspection des URLs, rassemblement des domaines d’un site ou encore analyse des données structurées. La Search Console s’est enrichie de nombreuses nouvelles données cette année.
A défaut de savoir ce que Google veut, la Search Console révèle aux référenceurs ce que Google voit. Aussi, lorsque l'outil lance plusieurs fonctionnalités, ce sont autant de nouvelles perspectives qui s'ouvrent à eux pour suivre l'état de santé de leurs sites, et parfois interagir directement avec le moteur de recherche. Comme par exemple dans le cas de la demande d'indexation dans l'outil d'inspection des URLs. Tour d'horizon des nouveautés 2019.
Annoncée le 27 février dernier, la fonctionnalité Domain Properties a pour objectif de montrer en un seul rapport toutes les sous parties d'un domaine. Pour les agences SEO, comme Digimood, c'est une avancée : "Un seul rangement par domaine, avec l'ensemble des sous-domaines, http, https et dossiers à l'intérieur, c'est bien plus simple qu'auparavant", se réjouit Julien Ringard, son directeur associé. Dorénavant, au moment de l'ajout de son site dans la Search Console, le référenceur a le choix entre l'enregistrement du préfixe de l'URL (www., m. ou https, correspondant à une vue dans la Search Console), comme avant, et celui du domaine (domaine.com). Un peu plus complexe, ce dernier impose d'avoir accès à son hébergeur pour la validation.
"Certes, cette nouvelle fonctionnalité va permettre de regrouper les datas de l'ensemble des préfixes de l'URL (dans la limite de 1 000 URLs). Mais si vous traitez un blog avec "blog.domaine.com" et un site avec "domaine.com", je préfère quand même conserver le préfixe des URLs pour bien isoler mes datas, idem pour un domaine international", nuance toutefois le directeur associé de Digimood.
En plus de permettre de "rafraîchir" ou d'accélérer l'indexation d'une page, le nouvel outil d'inspection d'URL fournit une foule d'informations pour comprendre et débuguer d'éventuels problèmes de crawl ou d'indexation. "Notamment concernant l'AMP ou les données structurées", relève Aymen Loukil, consultant SEO international. La partie de ce rapport intitulée "Afficher la page explorée" permet désormais de voir avec les yeux de Google :
La deuxième partie du rapport d'inspection concerne la couverture de l'URL testée. Elle permet de savoir comment le Googlebot a découvert la page, quel bot l'a crawlée pour la dernière fois, à quel moment, et s'il a pu la crawler sans être bloqué par une indication dans le fichier robots.txt. Enfin, "Google indique désormais si l'URL canonique retenue par ses robots est bien celle que l'utilisateur a déclarée", souligne Aymen Loukil.
L'outil d'analyse de la couverture remonte maintenant quatre répertoires (erreur, valides avec des avertissements, valides et exclues) avec dans chacun l'état, le type de problème, la validation, la tendance et le nombre de pages concernées. "Cela donne des exemples concrets pour corriger des erreurs même si nous restons limités à 1 000 URLs par type de problème", explique Julien Ringard.
Toutefois, les données de la Search Console ne se suffisent pas toujours à elles-mêmes. Aymen Loukil recommande par exemple de croiser les erreurs de serveur 5xx avec les logs serveurs pour en comprendre l'origine. Et "pour mieux filtrer les erreurs et problèmes concernant une certaine typologie de page, comme les produits ou les articles du blog," il conseille d'"utiliser le filtre en haut à gauche pour segmenter par sitemap".
La section "Sitemap", reliée aux fonctionnalités du rapport de couverture, permet désormais de traiter directement les URLs de chaque sitemap, "ce qui permet de faire des opérations chirurgicales", se réjouit encore Julien Ringard. En effet, "la nouvelle interface, catégorise bien les erreurs et on comprend vite s'il s'agit de l'apparition de pages 404, soft ou vraies, d'erreurs de disponibilité du serveur ou bien d'une hausse imprévue des pages qu'on ne souhaite pas indexer", précise Alexis Rylko, consultant senior chez iProspect.
Depuis le 10 avril, les sites qui reçoivent du trafic issu de Google Discover ont accès à un rapport "Discover" en parallèle des performances. Les informations disponibles concernent les URLs affichées, le nombre de clics générés, le nombre d'impressions et le CTR pour chacune. Pas de mots-clés en revanche, puisque le contenu est suggéré. Aymen Loukil considère les données de la Search Console plus complètes que celles de Google Analytics en ce qui concerne Discover : "pas encore officielle, la source googleapis.com dans le referral de Google Analytics ne remonte qu'une partie du trafic. La Search Console, elle, collecte tous les clics". Il l'utilise d'ores et déjà pour comparer les performances de Discover et du trafic organique.   
Depuis peu, la Search console offre aussi, dans la rubrique "Améliorations", un rapport sur les résultats enrichis issus de données structurées schema.org sur le site. Bien entendu, il faut avoir déjà implémenté l'une des données structurées déjà prises en compte pour en voir apparaître. Or, "seules huit catégories sont analysées par l'outil : événements, offres d'emploi, logo, produit, page de questions réponses, recette, champ de recherche sur la SERP et vidéo", rappelle Aymen Loukil.
La rubrique "avertissements" permet de trouver quelques points d'amélioration du balisage schema.org, comme remplir des champs supplémentaires mais non obligatoires. Enfin, cerise sur le gâteau, elle donne "la possibilité de partager un rapport en particulier avec une personne tierce sans être obligé de partager un accès total de la propriété", rapporte le consultant SEO.
Le 2 mai 2019, Google a annoncé l'arrivée d'un nouveau rapport analysant les codes schema.org erronés qui rendent illisibles les données structurées, ainsi que la possibilité d'utiliser l'outil d'inspection d'URL pour les tester en temps réel.  
Aymen Loukil accompagne en tant que consultant indépendant les petites et grandes entreprises dans leurs stratégies de SEO, sur des missions techniques et généralistes.
Julien Ringard a co-fondé et dirige l'agence SEO Digimood à Marseille. Il est également l'auteur de plusieurs ouvrages traitant de SEO, notamment "Ce que Google veut", 2ème édition en 2017.
Alexis Rylko est consultant senior chez iProspect depuis 2015. Il accompagne un portefeuille de clients. Il a mené en 2018 une étude sur l'évolution du CTR.

A défaut de savoir ce que Google veut, la Search Console révèle aux référenceurs ce que Google voit. Aussi, lorsque l'outil lance plusieurs fonctionnalités, ce sont autant de nouvelles perspectives qui s'ouvrent à eux pour suivre l'état…
Je gère mes abonnements push
Les informations recueillies sont destinées à CCM Benchmark Group pour vous assurer l’envoi de votre newsletter.
Elles seront également utilisées sous réserve des options souscrites, à des fins de ciblage publicitaire.
Vous bénéficiez d’un droit d’accès et de rectification de vos données personnelles, ainsi que celui d’en demander l’effacement dans les limites prévues par la loi.
Vous pouvez également à tout moment revoir vos options en matière de ciblage. En savoir plus sur notre politique de confidentialité.

source

Catégorisé: