Utilisation de l'outil Robots.txt dans All in One SEO

Vous cherchez à personnaliser le fichier robots.txt de votre site ? Cet article vous aidera.

Le module robots.txt dans All in One SEO vous permet de gérer le fichier robots.txt que WordPress crée.

Cela vous permet d'avoir un plus grand contrôle sur les instructions que vous donnez aux robots d'exploration concernant votre site.

Vidéo tutoriel

Voici une vidéo sur la façon d'utiliser l'outil Robots.txt dans All in One SEO :

À propos du fichier Robots.txt dans WordPress

Tout d'abord, il est important de comprendre que WordPress génère un fichier robots.txt dynamique pour chaque site WordPress.

Ce fichier robots.txt par défaut contient les règles standard pour tout site fonctionnant sous WordPress.

Deuxièmement, comme WordPress génère un fichier robots.txt dynamique, il n'y a pas de fichier statique à trouver sur votre serveur. Le contenu du fichier robots.txt est stocké dans votre base de données WordPress et affiché dans un navigateur Web. C'est tout à fait normal et c'est bien mieux que d'utiliser un fichier physique sur votre serveur.

Enfin, All in One SEO ne génère pas de fichier robots.txt, il vous fournit simplement un moyen très simple d'ajouter des règles personnalisées au fichier robots.txt par défaut que WordPress génère.

Utilisation de l'éditeur Robots.txt dans All in One SEO

Pour commencer, cliquez sur Outils dans le menu All in One SEO.

Élément de menu Outils dans le menu All in One SEO

Vous devriez voir l'option Éditeur Robots.txt et le premier réglage sera Activer le fichier Robots.txt personnalisé. Cliquez sur le commutateur pour activer l'éditeur de fichier robots.txt personnalisé.

Cliquez sur le bouton bascule Activer le robots.txt personnalisé dans l'éditeur Robots.txt

Vous devriez voir la section Aperçu du fichier Robots.txt personnalisé en bas de l'écran, qui affiche les règles par défaut ajoutées par WordPress.

Section d'aperçu Robots.txt dans l'éditeur Robots.txt

Règles par défaut du fichier Robots.txt dans WordPress

Les règles par défaut qui s'affichent dans la section Aperçu personnalisé du fichier robots.txt (illustrée dans la capture d'écran ci-dessus) demandent aux robots de ne pas explorer vos fichiers WordPress principaux. Il est inutile que les moteurs de recherche accèdent directement à ces fichiers car ils ne contiennent aucun contenu pertinent pour le site.

Si pour une raison quelconque vous souhaitez supprimer les règles par défaut ajoutées par WordPress, vous devrez utiliser le hook de filtre robots_txt dans WordPress.

Ajouter des règles à l'aide du générateur de règles

Le générateur de règles est utilisé pour ajouter vos propres règles personnalisées pour des chemins spécifiques sur votre site.

Par exemple, si vous souhaitez ajouter une règle pour bloquer tous les robots d'un répertoire temporaire, vous pouvez utiliser le générateur de règles pour l'ajouter.

Ajout d'une règle dans le générateur de règles robots.txt

Pour ajouter une règle, cliquez sur le bouton Ajouter une règle, puis complétez les champs décrits ci-dessous.

Agent utilisateur

Tout d'abord, saisissez l'agent utilisateur dans le champ Agent utilisateur.

Par exemple, si vous souhaitez spécifier le robot d'exploration de Google, saisissez « Googlebot » dans le champ Agent utilisateur.

Si vous souhaitez une règle qui s'applique à tous les agents utilisateurs, saisissez * dans le champ Agent utilisateur.

Directive

Ensuite, sélectionnez le type de règle dans le menu déroulant Directive. Il existe quatre types de règles que vous pouvez sélectionner :

  • Autoriser autorisera les robots d'exploration avec l'agent utilisateur spécifié à accéder au répertoire ou au fichier dans le champ Valeur.
  • Bloquer bloquera les robots d'exploration avec l'agent utilisateur spécifié à accéder au répertoire ou au fichier dans le champ Valeur.
  • Clean-param vous permet d'exclure les pages avec des paramètres d'URL qui peuvent donner le même contenu avec une URL différente. Yandex, le seul moteur de recherche qui prend actuellement en charge cette directive, a une bonne explication avec des exemples ici.
  • Crawl-delay indique aux robots d'exploration à quelle fréquence ils peuvent explorer votre contenu. Par exemple, un délai d'exploration de 10 indique aux robots d'exploration de ne pas explorer votre contenu plus d'une fois toutes les 10 secondes.
    Actuellement, cette directive n'est prise en charge que par Bing, Yahoo et Yandex. Vous pouvez modifier le taux d'exploration du robot de Google dans la Google Search Console.

Valeur

Ensuite, saisissez le chemin du répertoire ou le nom du fichier dans le champ Valeur.

Vous pouvez saisir un chemin de répertoire tel que /wp-content/backups/ et des chemins de fichiers tels que /wp-content/backups/temp.png.

Vous pouvez également utiliser * comme caractère générique, par exemple /wp-content/backup-*.

Si vous souhaitez ajouter d'autres règles, cliquez sur le bouton Ajouter une règle et répétez les étapes ci-dessus.

Lorsque vous avez terminé, cliquez sur le bouton Enregistrer les modifications.

Vos règles apparaîtront dans la section Aperçu personnalisé du fichier robots.txt et dans votre fichier robots.txt, que vous pouvez afficher en cliquant sur le bouton Ouvrir le fichier robots.txt.

robots.txt personnalisé terminé

Modification des règles à l'aide du générateur de règles

Pour modifier une règle que vous avez ajoutée, modifiez simplement les détails dans le générateur de règles et cliquez sur le bouton Enregistrer les modifications.

Modification d'une règle robots.txt personnalisée dans l'éditeur de règles

Suppression d'une règle dans le générateur de règles

Pour supprimer une règle que vous avez ajoutée, cliquez sur l'icône de corbeille à droite de la règle.

Suppression d'une règle robots.txt personnalisée dans l'éditeur de règles

Modification de l'ordre des règles dans le générateur de règles

Vous pouvez facilement modifier l'ordre dans lequel vos règles personnalisées apparaissent dans votre fichier robots.txt en faisant glisser et déposer les entrées dans le générateur de règles.

Cliquez et maintenez l'icône de glisser-déposer à droite de la règle et déplacez la règle à l'endroit où vous souhaitez qu'elle apparaisse, comme indiqué ci-dessous.

Modification de l'ordre des règles personnalisées dans l'éditeur Robots.txt

Google propose une bonne explication ici sur l'importance de l'ordre dans lequel vous placez vos règles.

Importation de votre propre fichier Robots.txt dans All in One SEO

Vous pouvez importer votre propre robots.txt ou des règles d'une autre source très facilement.

Tout d'abord, cliquez sur le bouton Importer pour ouvrir la fenêtre Importer Robots.txt.

Bouton Importer affiché dans le générateur de règles dans All in One SEO

Dans la fenêtre Importer Robots.txt, vous pouvez importer à partir d'une URL en saisissant l'URL d'un robots.txt dans le champ Importer depuis l'URL ou vous pouvez coller le contenu d'un robots.txt dans le champ Coller le texte Robots.txt.

Fenêtre Importer Robots.txt montrant le champ Importer depuis l'URL et le texte Coller Robots.txt

Une fois que vous avez fait cela, cliquez sur le bouton Importer.

Utilisation des règles avancées dans le générateur de règles

Le générateur de règles Robots.txt prend également en charge l'utilisation de règles avancées. Cela inclut les modèles regex ainsi que les paramètres d'URL.

Voici trois exemples d'utilisation des règles avancées :

Dans les exemples ci-dessus, ces règles avancées sont présentées :

  • /search$ – ceci utilise regex pour autoriser l'accès au chemin exact « /search »
  • /search/ – ceci bloque l'accès aux chemins qui commencent par « /search/ » mais ne correspondent pas exactement
  • /?display=wide – ceci autorise l'accès à la page d'accueil avec le paramètre d'URL correspondant

Des règles avancées comme celles-ci permettent un contrôle granulaire sur le fichier robots.txt de votre site afin que vous ayez un contrôle total sur la manière dont les agents utilisateurs accèdent à votre site Web.

Blocage des robots d'exploration indésirables

Vous pouvez utiliser Bloquer les robots d'IA pour ajouter des règles à votre robots.txt qui bloquent les robots connus tels que les robots d'IA et Google AdsBot.

Paramètres Bloquer les robots d'IA dans l'éditeur Robots.txt de All in One SEO

Vous pouvez sélectionner chacun des robots pour les bloquer, ou vous pouvez sélectionner Tous les robots d'IA pour bloquer tous ceux qui sont listés.

Blocage de l'exploration des URL de recherche interne du site

Vous pouvez utiliser le paramètre Bloquer l'exploration des URL de recherche interne du site pour ajouter des règles à votre robots.txt afin d'empêcher l'exploration des URL des pages de recherche. Cela réduit l'exploration inutile de votre site.

Paramètre Bloquer l’exploration des URL de recherche interne du site dans l’éditeur Robots.txt d’All in One SEO

Éditeur Robots.txt pour WordPress Multisite

Il existe également un éditeur Robots.txt pour les réseaux multisites. Les détails peuvent être trouvés dans notre documentation sur l'éditeur Robots.txt pour les réseaux multisites ici.