Peut-être avez-vous déjà rencontré sur votre serveur un petit fichier nommé robots.txt sur WordPress. Et peut-être aussi que vous vous êtes demandé « mais qu’est-ce que c’est que cette bête-là ? ». Afin de supprimer toutes vos questions à ce sujet, je vais vous expliquer l’utilité de ce fichier, comment créer un fichier robots.txt pour WordPress et si vous devez en créer un ou pas.
Le fichier robots.txt de WordPress est un fichier que l’on va insérer à la racine de son site afin d’indiquer aux robots d’exploration des moteurs de recherche quelle partie du site ils doivent venir explorer.
Il est complémentaire au sitemap. Il n’a pas pour but d’éviter l’indexation de certaines parties de votre site, mais plutôt d’optimiser l’exploration des robots au sein de votre site pour éviter l’indexation de certaines pages.
Cela permet d’optimiser le crawl (l’exploration) des moteurs de recherche sur votre site en évitant à celui-ci de perdre du temps sur du contenu qui n’a aucune utilité à être exploré. Le temps attribué par les moteurs de recherche sur votre site est ainsi optimisé pour donner un maximum de puissance aux pages importantes. Il joue le rôle d’aiguilleur pour faire simple.
L’accès au fichier
Si vous utilisez des CMS comme Wix ou Blogger par exemple vous n’aurez pas forcément la possibilité de régler ce fichier robots.txt.
Le fichier robots.txt peut être utilisé pour gérer l’exploration de certaines parties de votre site. Notamment les fichiers audio, les fichiers vidéo, les fichiers PDF, etc.
Il permet aussi de cacher certaines parties de l’installation de WordPress qui ne doivent pas forcément être explorées.
Les limites du fichier
Le fichier robots.txt peut être interprété différemment selon le navigateur web utilisé. De même, c’est un fichier public lisible sur n’importe quel navigateur. Vous pouvez savoir si vous avez le fichier d’installé sur votre serveur en tapant le nom de domaine suivi du nom du fichier, comme ceci : https://nomdusite.com/robots.txt dans votre navigateur web.
Il gère l’exploration des moteurs de recherche et non l’indexation des pages.
Prenons un exemple de la vie courante pour illustrer le propos :
La mère de Pierre ne veut plus qu’il voie Paul.
Du coup Pierre ne peut pas explorer les rues pour rencontrer Paul (ça c’est le fichier robots.txt).
Par contre, Paul a un copain commun à Pierre. Il s’appelle Jacques. Jacques rencontre souvent Paul.
Du coup, Pierre garde contact avec Paul par l’intermédiaire de Jacques malgré les consignes de sa mère.