Toute démarche de référencement naturel implique de maitriser puis d’aborder trois volets fondamentaux constitutifs de ce qui recouvre le référencement naturel : un volet technique (votre site est-il lisible par Google ?) ; un volet sémantique, autrement désigné volet éditorial (vos contenus sont ils pertinents tant pour vos lecteurs que pour Google ?) ; et un volet popularité (Google comprend-il votre site comme une référence sur internet au regard des autres sites ?).
Technique du référencement naturel : crawler et indexation
Maitriser le volet technique du référencement naturel implique de prêter une attention spécifique au crawler et à l’indexation des pages.
– Crawler : un crawler est un logiciel robot (on fait souvent référence à la notion de « robot d’indexation ») utilisé par un moteur de recherche pour référencer puis décider d’indexer (ou pas!) le contenu des pages d’un site.
Toute démarche de référencement naturel implique de maitriser puis d’aborder trois volets fondamentaux constitutifs de ce qui recouvre le référencement naturel : un volet technique (votre site est-il lisible par Google ?) ; un volet sémantique, autrement désigné volet éditorial (vos contenus sont ils pertinents tant pour vos lecteurs que pour Google ?) ; et un volet popularité (Google comprend-il votre site comme une référence sur internet au regard des autres sites ?).
Technique du référencement naturel : crawler et indexation
Maitriser le volet technique du référencement naturel implique de prêter une attention spécifique au crawler et à l’indexation des pages.
– Crawler : un crawler est un logiciel robot (on fait souvent référence à la notion de « robot d’indexation ») utilisé par un moteur de recherche pour référencer puis décider d’indexer (ou pas!) le contenu des pages d’un site. Le crawl est le principe structurel d’un moteur de recherche. Il correspond ainsi à un script permettant d’explorer le web de manière automatisée. Ce script cherche à suivre puis comprendre, tous les liens qu’il peut trouver sur la toile, ceci afin de découvrir sans arrêt de nouveaux sites, un peu comme une toile d’araignée. Pas un hasard d’ailleurs qu’en anglais, « crawler » soit un synonyme de « spider » (araignée). Le logiciel robot que constitue le crawler remplit ainsi la mission de collecter toutes les ressources d’un site (pages web, documents, contenus écrits, vidéos ou audios, etc…) pour le compte du moteur de recherche ; cette collecte permettra ensuite au moteur de recherche d’indexer ses ressources.
– Indexation : l’indexation est le phénomène qui découle du crawl. Il s’agit d’un process consistant à faire l’inventaire (à répertorier) de toutes les pages accessibles sur internet ceci afin de pouvoir les faire apparaitre sur les pages de résultat d’un moteur de recherche. A l’issue de ce process, l’indexation consiste en « l’enregistrement » d’une url dans la base de données d’un moteur de recherche. Ce point est capital car une url peut-être crawlée sans être indexée. Or, si tel est le cas, votre page (url), ne pourra pas être positionnée dans les moteurs de recherche (donc ressortir dans les pages de résultats de Google entre autre) : une url qui n’est pas indexée ne peut pas être positionnée.
Volet sémantique (ou éditorial)
Le volet sémantique, également désigné volet éditorial, consiste essentiellement à analyser la qualité du contenu d’un site, sa pertinence tant au regard de vos utilisateurs que des moteurs de recherche.
La base de l’algorithme d’un moteur de recherche est sa capacité à analyser le contenu d’une page web pour pouvoir, ensuite, en extraire le sujet et les mots-clés sur lequel le contenu est pertinent. L’algorithme va traiter le texte « compréhensible » d’une page et ce faisant, il va être capable d’en identifier les éléments fondamentaux.
L’aspect sémantique d’un site web a vocation à prendre une ampleur croissante. Avec l’ère du web 2.0, web social on entrerait en effet selon les spécialistes dans l’ère du web 3.0, un web sémantique basé sur le partage et la réutilisation, par les différents utilisateurs du web, de toutes les données partagées sur le world wide web.
Analyse de la popularité du site
Enfin, maitriser l’aspect popularité de votre site consiste à analyser dans quelle mesure votre site est dense et riche en terme de netlinking (liens internes au site certes, mais surtout, liens externes pointant vers le vôtre). Pourquoi ce netlinking est-il fondamental en terme de référencement naturel ? Parce que la popularité qui le sous-tend est une notion capitale développée par Google. Le principe est simple : plus un site a des liens externes qui pointent vers lui, plus le moteur de recherche va le considérer pertinent et « populaire ».
Comment détermine t-on la popularité d’un site ? par le nombre de liens pointant vers un site ET par la qualité de ces liens. Quand un lien est-il considéré de bonne qualité ? Lorsque le site depuis lequel il pointe est à la fois sémantiquement proche de celui vers lequel il pointe ET lorsque ledit site a lui-même une bonne popularité (d’où une « chaine » de lien qui constitue la toile qu’est le net !).
Et pour en savoir plus sur comment améliorer votre référencement naturel voici le Guide édité par Google sur l’optimisation de votre site pour les moteurs de recherche.