Utilizzo dello strumento Robots.txt in All in One SEO

Stai cercando di personalizzare il robots.txt sul tuo sito? Questo articolo ti aiuterà.

Il modulo robots.txt in All in One SEO ti consente di gestire il robots.txt che WordPress crea.

Ciò ti consente di avere un maggiore controllo sulle istruzioni che fornisci ai crawler web riguardo al tuo sito.

Video tutorial

Ecco un video su come utilizzare lo strumento Robots.txt in All in One SEO:

Informazioni sul Robots.txt in WordPress

Innanzitutto, è importante capire che WordPress genera un robots.txt dinamico per ogni sito WordPress.

Questo robots.txt predefinito contiene le regole standard per qualsiasi sito in esecuzione su WordPress.

In secondo luogo, poiché WordPress genera un robots.txt dinamico, non esiste un file statico da trovare sul tuo server. Il contenuto del robots.txt è memorizzato nel tuo database WordPress e visualizzato in un browser web. Questo è perfettamente normale ed è molto meglio che utilizzare un file fisico sul tuo server.

Infine, All in One SEO non genera un robots.txt, fornisce solo un modo molto semplice per aggiungere regole personalizzate al robots.txt predefinito che WordPress genera.

Utilizzo dell'editor Robots.txt in All in One SEO

Per iniziare, fai clic su Strumenti nel menu All in One SEO.

Elemento del menu Strumenti nel menu All in One SEO

Dovresti vedere l'Editor Robots.txt e la prima impostazione sarà Abilita Robots.txt personalizzato. Fai clic sull'interruttore per abilitare l'editor robots.txt personalizzato.

Fai clic sull'interruttore Abilita Robots.txt Personalizzato nell'Editor Robots.txt

Dovresti vedere la sezione Anteprima Custom Robots.txt in fondo alla pagina, che mostra le regole predefinite aggiunte da WordPress.

Sezione di Anteprima Robots.txt nell'Editor Robots.txt

Regole predefinite di Robots.txt in WordPress

Le regole predefinite che appaiono nella sezione Anteprima Custom Robots.txt (mostrata nello screenshot sopra) chiedono ai robot di non eseguire la scansione dei file principali di WordPress. È inutile che i motori di ricerca accedano direttamente a questi file perché non contengono contenuti rilevanti del sito.

Se per qualche motivo desideri rimuovere le regole predefinite aggiunte da WordPress, dovrai utilizzare l'hook del filtro robots_txt in WordPress.

Aggiungere Regole Utilizzando il Generatore di Regole

Il generatore di regole viene utilizzato per aggiungere le tue regole personalizzate per percorsi specifici sul tuo sito.

Ad esempio, se desideri aggiungere una regola per bloccare tutti i robot da una directory temporanea, puoi utilizzare il generatore di regole per aggiungerla.

Aggiunta di una regola nel costruttore di regole robots.txt

Per aggiungere una regola, fai clic sul pulsante Aggiungi Regola e quindi completa i campi descritti di seguito.

User Agent

Innanzitutto, inserisci l'user agent nel campo User Agent.

Ad esempio, se desideri specificare il crawler di Google, inserisci "Googlebot" nel campo User Agent.

Se desideri una regola che si applichi a tutti gli user agent, inserisci * nel campo User Agent.

Direttiva

Successivamente, seleziona il tipo di regola nel menu a discesa Direttiva. Ci sono quattro tipi di regole tra cui puoi scegliere:

  • Allow consentirà ai crawler con lo user agent specificato di accedere alla directory o al file nel campo Valore.
  • Block bloccherà ai crawler con lo user agent specificato l'accesso alla directory o al file nel campo Valore.
  • Clean-param ti consente di escludere pagine con parametri URL che possono fornire lo stesso contenuto con un URL diverso. Yandex, l'unico motore di ricerca che attualmente supporta questa direttiva, ha una buona spiegazione con esempi qui.
  • Crawl-delay indica ai crawler quanto frequentemente possono eseguire la scansione dei tuoi contenuti. Ad esempio, un crawl delay di 10 indica ai crawler di non eseguire la scansione dei tuoi contenuti più di ogni 10 secondi.
    Attualmente questa direttiva è supportata solo da Bing, Yahoo e Yandex. Puoi modificare la frequenza di scansione del crawler di Google in Google Search Console.

Valore

Successivamente, inserisci il percorso della directory o il nome del file nel campo Valore.

Puoi inserire un percorso di directory come /wp-content/backups/ e percorsi di file come /wp-content/backups/temp.png.

Puoi anche usare * come carattere jolly, ad esempio /wp-content/backup-*.

Se desideri aggiungere altre regole, fai clic sul pulsante Aggiungi Regola e ripeti i passaggi precedenti.

Al termine, fai clic sul pulsante Salva Modifiche.

Le tue regole appariranno nella sezione Anteprima Custom Robots.txt e nel tuo robots.txt, che puoi visualizzare facendo clic sul pulsante Apri Robots.txt.

robots.txt personalizzato completato

Modifica delle regole utilizzando il Generatore di regole

Per modificare qualsiasi regola che hai aggiunto, cambia semplicemente i dettagli nella struttura delle regole e fai clic sul pulsante Salva modifiche.

Modifica di una regola robots.txt personalizzata nell'editor di regole

Eliminazione di una regola nel Generatore di regole

Per eliminare una regola che hai aggiunto, fai clic sull'icona del cestino a destra della regola.

Eliminazione di una regola robots.txt personalizzata nell'editor di regole

Modifica dell'ordine delle regole nel Generatore di regole

Puoi facilmente cambiare l'ordine in cui le tue regole personalizzate appaiono nel tuo robots.txt trascinando e rilasciando le voci nella struttura delle regole.

Fai clic e tieni premuta l'icona di trascinamento a destra della regola e spostala dove desideri che appaia, come mostrato di seguito.

Modifica dell'ordine delle regole personalizzate nell'editor Robots.txt

Google fornisce una buona spiegazione qui sul perché l'ordine in cui posizioni le tue regole è importante.

Importazione del tuo Robots.txt in All in One SEO

Puoi importare il tuo robots.txt o le regole da un'altra fonte molto facilmente.

Per prima cosa, fai clic sul pulsante Importa per aprire la finestra Importa Robots.txt.

Pulsante di importazione mostrato nel generatore di regole in All in One SEO

Nella finestra Importa Robots.txt puoi importare da un URL inserendo l'URL di un robots.txt nel campo Importa da URL oppure puoi incollare il contenuto di un robots.txt nel campo Incolla testo Robots.txt.

Finestra di importazione Robots.txt che mostra il campo Importa da URL e il testo Incolla Robots.txt

Una volta fatto ciò, fai clic sul pulsante Importa.

Utilizzo di regole avanzate nel Generatore di regole

Il Costruttore di Regole Robots.txt supporta anche l'uso di regole avanzate. Ciò include pattern regex e parametri URL.

Ecco tre esempi di come possono essere utilizzate le regole avanzate:

Negli esempi sopra, queste regole avanzate sono mostrate:

  • /search$ – questo utilizza regex per consentire l'accesso al percorso esatto "/search"
  • /search/ – questo blocca l'accesso ai percorsi che iniziano con "/search/" ma non sono una corrispondenza esatta
  • /?display=wide – questo consente l'accesso alla homepage con il parametro URL corrispondente

Regole avanzate come queste consentono un controllo granulare sul file robots.txt del tuo sito in modo da avere il pieno controllo su come gli user agent accedono al tuo sito web.

Blocco di crawler indesiderati

Puoi usare Blocca Crawler AI per aggiungere regole al tuo robots.txt che bloccano crawler noti come crawler AI e Google AdsBot.

Impostazioni Blocca crawler AI nell'editor Robots.txt di All in One SEO

Puoi selezionare ciascuno dei crawler per bloccarli, oppure puoi selezionare Tutti i Crawler AI per bloccare tutti quelli elencati.

Blocca l'indicizzazione degli URL di ricerca interna del sito

Puoi usare l'impostazione Blocca Scansione URL di Ricerca Interna del Sito per aggiungere regole al tuo robots.txt per impedire la scansione delle pagine di ricerca. Ciò riduce la scansione non necessaria del tuo sito.

Impostazione Blocca l'indicizzazione degli URL della ricerca interna del sito nell'editor Robots.txt di All in One SEO

Editor Robots.txt per WordPress Multisite

Esiste anche un Editor Robots.txt per Reti Multisito. I dettagli sono disponibili nella nostra documentazione sull'Editor Robots.txt per Reti Multisito qui.