Référencement : comment proposer un résultat pertinent aux requêtes demandées par le client ?

Un travail de référencement consiste généralement à modifier plus ou moins légèrement certaines sections d’une page web. Considérées individuellement, ces transformations peuvent paraître minimes, mais lorsqu’elles se combinent avec les autres optimisations, l’impact peut être beaucoup plus important au niveau de l'expérience utilisateur. Par la même occasion, votre site devient plus performant du point de vue pertinence de résultats affichés. L’un de ces impacts est l’affichage des résultats les plus pertinents pour votre public cible.

Résultats de recherche : trouver des titres de qualité

Les titres de vos pages sont primordiaux pour que l’internaute ait un bref aperçu du contenu de celles-ci et de leur pertinence par rapport à ce qu’il recherche. Souvent, il s'agit de la principale information qui constitue la base de décision des internautes sur le fait de cliquer ou non sur ce résultat. Ainsi, il est essentiel de veiller à la qualité des titres choisis pour chacune des pages Web.

Par exemple, les titres de vos pages d’accueil peuvent inclure la désignation de votre portail virtuel entreprise, ou d’autres renseignements importants, comme le siège de la société, les infos concernant votre secteur d’activités, ou encore les services/produits que vous proposez.  

Eviter l’affichage des informations impertinentes

Les fichiers robots.txt indiquent à Google les parties accessibles et destinées à être explorées sur votre site. Ces fichiers, dont les désignations sont modifiables, sont répertoriés dans les dossiers racines de votre page. Il se peut que les pages rendues non accessibles par les fichiers robots.txt demeurent explorables : pour ces pages sensibles, une technique mieux sécurisée s’impose.

Si vous vouliez que quelques pages, peu pertinentes pour Google, ne puissent pas être lues, l’outil Google Search Console met à disposition un générateur permettant de créer un robots.txt. Pour les sites utilisant des sous-domaines et les pages dont l’exploration devrait être bloquée, un répertoire robots.txt différent doit être créé pour le sous-domaine concerné.

Google : des pages affichées telles que vues par les internautes

Quand Googlebot parcourt une page, celle-ci devrait être affichée de la même manière que pour les internautes. Pour l’indexation et l’optimisation d’affichage, les fichiers CSS, JavaScript et images du site doivent rester accessibles à tout moment par Googlebot. Si les fichiers robots.txt bloquent l'accès à ces éléments, cela impacte directement l’indexation et l’affichage du contenu. De ce fait, votre classement ne serait probablement pas optimal.

Ainsi, il est recommandé d’utiliser l'outil inspection d'URL, qui reproduit exactement la manière avec laquelle Googlebot affiche les contenus de votre site.

Plan du site