Uso de la herramienta Robots.txt en All in One SEO

¿Buscas personalizar el robots.txt de tu sitio? Este artículo te ayudará.

El módulo robots.txt en All in One SEO te permite gestionar el robots.txt que WordPress crea.

Esto te permite tener un mayor control sobre las instrucciones que das a los rastreadores web sobre tu sitio.

Vídeo tutorial

Aquí tienes un vídeo sobre cómo usar la herramienta Robots.txt en All in One SEO:

Acerca de Robots.txt en WordPress

En primer lugar, es importante entender que WordPress genera un robots.txt dinámico para cada sitio de WordPress.

Este robots.txt predeterminado contiene las reglas estándar para cualquier sitio que funcione con WordPress.

En segundo lugar, dado que WordPress genera un robots.txt dinámico, no hay un archivo estático que encontrar en tu servidor. El contenido del robots.txt se almacena en tu base de datos de WordPress y se muestra en un navegador web. Esto es perfectamente normal y es mucho mejor que usar un archivo físico en tu servidor.

Por último, All in One SEO no genera un robots.txt, solo te proporciona una forma muy sencilla de añadir reglas personalizadas al robots.txt predeterminado que genera WordPress.

Uso del editor Robots.txt en All in One SEO

Para empezar, haz clic en Herramientas en el menú de All in One SEO.

Elemento del menú Herramientas en el menú All in One SEO

Deberías ver el Editor de Robots.txt y el primer ajuste será Habilitar Robots.txt Personalizado. Haz clic en el interruptor para habilitar el editor de robots.txt personalizado.

Haz clic en el interruptor Habilitar Robots.txt Personalizado en el Editor de Robots.txt

Deberías ver la sección Vista previa personalizada de robots.txt en la parte inferior de la pantalla, que muestra las reglas predeterminadas añadidas por WordPress.

Sección de Vista Previa de Robots.txt en el Editor de Robots.txt

Reglas predeterminadas de Robots.txt en WordPress

Las reglas predeterminadas que se muestran en la sección Vista previa personalizada de robots.txt (mostrada en la captura de pantalla anterior) piden a los robots que no rastreen tus archivos principales de WordPress. Es innecesario que los motores de búsqueda accedan a estos archivos directamente porque no contienen ningún contenido relevante del sitio.

Si por alguna razón deseas eliminar las reglas predeterminadas que añade WordPress, necesitarás usar el hook de filtro robots_txt en WordPress.

Añadir reglas usando el constructor de reglas

El constructor de reglas se utiliza para añadir tus propias reglas personalizadas para rutas específicas en tu sitio.

Por ejemplo, si deseas añadir una regla para bloquear todos los robots de un directorio temporal, puedes usar el constructor de reglas para añadirla.

Agregar una regla en el constructor de reglas de robots.txt

Para añadir una regla, haz clic en el botón Añadir regla y luego completa los campos que se describen a continuación.

Agente de usuario

Primero, introduce el agente de usuario en el campo Agente de usuario.

Por ejemplo, si deseas especificar el rastreador de Google, introduce “Googlebot” en el campo Agente de usuario.

Si deseas una regla que se aplique a todos los agentes de usuario, introduce * en el campo Agente de usuario.

Directiva

A continuación, selecciona el tipo de regla en el menú desplegable Directiva. Hay cuatro tipos de reglas que puedes seleccionar:

  • Permitir permitirá a los rastreadores con el agente de usuario especificado acceder al directorio o archivo en el campo Valor.
  • Bloquear bloqueará a los rastreadores con el agente de usuario especificado el acceso al directorio o archivo en el campo Valor.
  • Clean-param te permite excluir páginas con parámetros de URL que pueden dar el mismo contenido con una URL diferente. Yandex, el único motor de búsqueda que actualmente soporta esta directiva, tiene una buena explicación con ejemplos aquí.
  • Crawl-delay indica a los rastreadores con qué frecuencia pueden rastrear tu contenido. Por ejemplo, un retraso de rastreo de 10 indica a los rastreadores que no rastreen tu contenido más de una vez cada 10 segundos.
    Actualmente, esta directiva solo es compatible con Bing, Yahoo y Yandex. Puedes cambiar la tasa de rastreo del rastreador de Google en Google Search Console.

Valor

A continuación, introduce la ruta del directorio o el nombre del archivo en el campo Valor.

Puedes introducir una ruta de directorio como /wp-content/backups/ y rutas de archivo como /wp-content/backups/temp.png.

También puedes usar * como comodín, como /wp-content/backup-*.

Si deseas añadir más reglas, haz clic en el botón Añadir regla y repite los pasos anteriores.

Cuando hayas terminado, haz clic en el botón Guardar cambios.

Tus reglas aparecerán en la sección Vista previa personalizada de robots.txt y en tu robots.txt, que puedes ver haciendo clic en el botón Abrir robots.txt.

robots.txt personalizado completado

Edición de reglas usando el constructor de reglas

Para editar cualquier regla que hayas añadido, simplemente cambia los detalles en el constructor de reglas y haz clic en el botón Guardar cambios.

Editar una regla de robots.txt personalizada en el editor de reglas

Eliminación de una regla en el constructor de reglas

Para eliminar una regla que hayas agregado, haz clic en el icono de la papelera a la derecha de la regla.

Eliminar una regla de robots.txt personalizada en el editor de reglas

Cambio del orden de las reglas en el constructor de reglas

Puedes cambiar fácilmente el orden en que aparecen tus reglas personalizadas en tu robots.txt arrastrando y soltando las entradas en el constructor de reglas.

Haz clic y mantén presionado el icono de arrastrar y soltar a la derecha de la regla y muévela a donde quieras que aparezca, como se ve a continuación.

Cambiar el orden de las reglas personalizadas en el editor de Robots.txt

Google tiene una buena explicación aquí sobre por qué el orden en que colocas tus reglas es importante.

Importación de tu propio Robots.txt en All in One SEO

Puedes importar tu propio robots.txt o reglas de otra fuente muy fácilmente.

Primero, haz clic en el botón Importar para abrir la ventana Importar Robots.txt.

Botón Importar que se muestra en el constructor de reglas en All in One SEO

En la ventana Importar Robots.txt, puedes importar desde una URL introduciendo la URL de un robots.txt en el campo Importar desde URL o puedes pegar el contenido de un robots.txt en el campo Pegar texto de Robots.txt.

Ventana Importar Robots.txt mostrando el campo Importar desde URL y el texto Pegar Robots.txt

Una vez que hayas hecho esto, haz clic en el botón Importar.

Uso de reglas avanzadas en el constructor de reglas

El Constructor de Reglas de Robots.txt también admite el uso de reglas avanzadas. Esto incluye patrones de expresiones regulares, así como parámetros de URL.

Aquí tienes tres ejemplos de cómo se pueden usar las reglas avanzadas:

En los ejemplos anteriores, se muestran estas reglas avanzadas:

  • /search$ – esto usa expresiones regulares para permitir el acceso a la ruta exacta "/search"
  • /search/ – esto bloquea el acceso a rutas que comienzan con "/search/" pero no son una coincidencia exacta
  • /?display=wide – esto permite el acceso a la página de inicio con el parámetro de URL coincidente

Las reglas avanzadas como estas permiten un control granular sobre el archivo robots.txt de tu sitio para que tengas control total sobre cómo los agentes de usuario acceden a tu sitio web.

Bloqueo de rastreadores no deseados

Puedes usar Bloquear Rastreadores de IA para agregar reglas a tu robots.txt que bloqueen rastreadores conocidos como rastreadores de IA y Google AdsBot.

Ajustes Bloquear rastreadores de IA en el Editor de Robots.txt de All in One SEO

Puedes seleccionar cada uno de los rastreadores para bloquearlos, o puedes seleccionar Todos los Rastreadores de IA para bloquear a todos los listados.

Bloquear el rastreo de URLs de búsqueda interna del sitio

Puedes usar la configuración Bloquear Rastreo de URLs de Búsqueda Interna del Sitio para agregar reglas a tu robots.txt para evitar el rastreo de URLs de páginas de búsqueda. Esto reduce el rastreo innecesario de tu sitio.

Ajuste Bloquear rastreo de URL de búsqueda interna del sitio en el Editor de Robots.txt de All in One SEO

Editor Robots.txt para WordPress Multisite

También hay un Editor de Robots.txt para Redes Multisitio. Los detalles se pueden encontrar en nuestra documentación sobre el Editor de Robots.txt para Redes Multisitio aquí.