#1 Generatore ed editor di Robots.txt per WordPress
Controllare il modo in cui i motori di ricerca effettuano il crawling del sito senza codice
Smettete di lottare con le regole del robots.txt. L'editor Robot.txt di AIOSEO vi aiuta a controllare con facilità i crawler dei motori di ricerca, evitando errori di indicizzazione e proteggendo i contenuti sensibili.

Modificare facilmente il file Robots.txt dalla dashboard di WordPress
Avete bisogno di un modo semplice per modificare il file robots.txt in WordPress?
Con All in One SEO, potete facilmente prendere il controllo del vostro sito e configurare un file robots.txt per sostituire il file predefinito di WordPress.
Esplora tutte le nostre potenti funzioni SEO
Ecco tutte le caratteristiche che rendono All in One SEO il miglior plugin SEO per WordPress.
Migliorare le classifiche SEO di WordPress con AIOSEO
Ottenete il più potente plugin SEO All in One per WordPress e migliorate oggi stesso le classifiche di ricerca del vostro sito web.
(Download immediato)
Funzionalità SEO ancora più potenti
- Aggiungete facilmente titolo, meta descrizione, parole chiave e tutto ciò che serve per l'ottimizzazione SEO on-page.
- Supporto completo per Google Knowledge Graph e Schema rich snippets
- Collegatevi facilmente con Google Search Console, Bing, Yandex, Baidu e gli strumenti per i webmaster di Pinterest.
- Supporto SEO avanzato per WooCommerce, in modo da poter ottimizzare le pagine dei prodotti, le categorie di prodotti e altro ancora.
- Notifica automaticamente ai motori di ricerca come Google e Bing le modifiche apportate al vostro sito.
Come creare e ottimizzare il file Robots.txt su WordPress
Avete problemi a creare o modificare un file robots.txt per il vostro sito WordPress? Se sì, non dovete cercare oltre. Questa guida vi insegnerà come creare un file robots.txt in WordPress perfettamente ottimizzato utilizzando All in One SEO, il miglior plugin WordPress per la SEO sul mercato.
Che cos'è il file Robots.txt?
Robots.txt è un file di testo che contiene istruzioni, note anche come direttive, per i bot dei motori di ricerca. I proprietari di siti web lo utilizzano per evitare che i motori di ricerca effettuino il crawling di pagine non necessarie del loro sito. Inoltre, fornisce suggerimenti ai motori di ricerca su come navigare e indicizzare al meglio il sito web.
Ecco un tipico esempio di robots.txt di WordPress:
User-agent: *
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-admin/
Disallow: /wp-content/uploads/wpforms/
Disallow: /xmlrpc.php
Sitemap: https://aioseo.com/video-sitemap.xml
Sitemap: https://aioseo.com/sitemap.xml
Sitemap: https://aioseo.com/sitemap.rss
Prima di discutere il file robots.txt nell'esempio precedente, diamo un'occhiata ai componenti principali di un file robots.txt.
- User-agent: Lo user-agent è ciò che i bot di ricerca utilizzano per identificarsi. È possibile utilizzare questa direttiva per indirizzare i bot dei motori di ricerca in modo specifico. Ad esempio, se si vuole che solo Google effettui il crawling del proprio sito web, si deve aggiungere googlebot al posto di *. Il simbolo * indica che tutti i motori di ricerca, come Google, Bing, Yahoo e altri, possono effettuare il crawling del vostro sito web.
- Consenti: Indica che il motore di ricerca ha il permesso di effettuare il crawling di questa specifica sezione del sito web.
- Disallow: Con questa direttiva è possibile indicare ai motori di ricerca di non accedere a determinate pagine o file del sito web.
Tornando all'esempio di robots.txt, abbiamo permesso a tutti i motori di ricerca di effettuare il crawling del nostro sito web utilizzando la direttiva user-agent: *. Abbiamo inoltre consentito e non consentito gli URL in base al modo in cui vogliamo che Google effettui il crawling del nostro sito web.
Utilizzando il file robots.txt, è anche possibile inviare sitemap multiple. Nel nostro file robots.txt abbiamo inserito una sitemap video separata per il nostro sito web. In questo modo è più facile per i motori di ricerca trovare, scansionare e indicizzare i video del nostro sito.
Una sitemap è una mappa di navigazione del vostro sito web. Indica ai motori di ricerca quante pagine avete sul vostro sito. Con il Generatore di Sitemap per WordPress di AIOSEO potete creare e inviare facilmente le vostre sitemap.
Molte persone chiedono anche: "Dov'è il robots.txt in WordPress?" nel caso in cui vogliano apportare modifiche.
Il file robots.txt di WordPress si trova nella directory principale del vostro sito web WordPress. Potete visualizzare il file collegandovi al vostro sito con un client FTP o con cPanel.
Ma non dovrete andare così lontano se utilizzate AIOSEO. Vi permette di modificare e visualizzare il file robots.txt dalla vostra dashboard di WordPress. Non c'è bisogno di un plugin WordPress robots.txt separato. Ne parleremo in dettaglio più avanti in questa guida.
È possibile visualizzarlo anche online digitando il nome del proprio dominio seguito dal testo "robots.txt". Ad esempio, https://www.example.com/robots.txt.
Ora che sapete cos'è e com'è fatto un file robots.txt, parliamo del perché è importante per il vostro sito web.
Perché è necessario un file Robots.txt per il vostro sito WordPress?
Il file robots.txt consente di controllare il modo in cui i motori di ricerca effettuano la scansione e l'indicizzazione del sito web. Senza il file robots.txt, i motori di ricerca effettueranno il crawling di tutto il vostro sito web, anche delle pagine non importanti.
Se non si impedisce ai bot di ricerca di effettuare il crawling di pagine non necessarie, questi utilizzeranno tutto il budget per il crawling e potrebbero non effettuare il crawling delle pagine desiderate.
Il crawl budget è il livello di attenzione che un motore di ricerca come Google dedica al vostro sito web. Si basa sulla frequenza con cui i motori di ricerca desiderano scansionare il vostro sito web e sulla frequenza con cui il vostro sito web può essere scansionato.
Se si spreca il budget per il crawling, Google e gli altri motori di ricerca non saranno in grado di effettuare il crawling del sito in modo efficiente e questo potrebbe danneggiare le prestazioni del sito.
Ogni sito web ha un budget di crawl limitato. I bot dei motori di ricerca effettuano il crawling solo di un certo numero di pagine durante la loro sessione di crawling.
Se il bot non effettua la scansione di tutto il sito web nella prima sessione di crawling, tornerà a scansionare le pagine rimanenti nella sessione successiva.
A seconda del vostro sito web, le prossime sessioni di crawling potrebbero non avvenire per giorni. Questo può rallentare l'indicizzazione del vostro sito web e le vostre pagine più importanti non verranno scansionate e indicizzate dai motori di ricerca. Ciò può comportare un'enorme perdita di traffico e di affari.
È possibile risolvere rapidamente il problema disabilitando le pagine non necessarie del sito web, come la pagina di amministrazione di WordPress, i file dei plugin e la cartella dei temi. Questo aiuterà a risparmiare il budget per il crawl e a migliorare il tasso di indicizzazione.
Passiamo ora alla parte in cui vi spieghiamo come visualizzare, modificare, creare e inviare il file robots.txt con AIOSEO.
Come creare un file Robots.txt per il vostro sito web WordPress?
All in One SEO (AIOSEO) rende molto semplice la creazione e la modifica del file robots.txt su WordPress.
Tutto ciò che dovete fare è accedere alla vostra dashboard di WordPress e andare su All in One SEO " Strumenti.

Verrà quindi visualizzata la pagina Robots.txt Editor. Da qui è possibile aggiungere o modificare facilmente il file robots.txt utilizzando il modulo.

Con AIOSEO, non dovrete preoccuparvi di formattare il file robots.txt. Tutto ciò che dovete fare è aggiungere direttive ai campi e AIOSEO farà il resto.
Una volta aggiunte le direttive, fare clic su Salva modifiche per completare la configurazione.
Ora che avete creato il file robots.txt, dovete testarlo per vedere se presenta errori.
Test del file Robots.txt di WordPress
Per verificare il file robots.txt, è sufficiente andare sullo strumento robots.txt tester e accedere con il proprio account Google Search Console.
Digitare quindi "robots.txt" nel campo URL e fare clic su Test.

Se il file robots.txt è convalidato, si otterrà il messaggio Consentito. In caso contrario, si otterranno gli errori e le avvertenze evidenziati nel riquadro.

E il gioco è fatto! Avete creato e convalidato con successo il file robots.txt di WordPress.
Speriamo che questa guida vi abbia aiutato a capire come creare un file robots.txt ottimizzato per il vostro sito WordPress utilizzando AIOSEO.
Domande frequenti sull'editor Robots.txt di AIOSEO
Ottenete risposte rapide sulla gestione del file robots.txt di WordPress con All in One SEO. Se la vostra domanda non è elencata qui, contattateci.
Un file robots.txt indica ai motori di ricerca a quali parti del vostro sito possono o non possono accedere. È fondamentale per controllare il modo in cui i motori di ricerca effettuano il crawling del sito e per proteggere i contenuti sensibili.
No! Il nostro editor visuale elimina la necessità di conoscenze tecniche. Create e modificate le regole con semplici comandi punta e clicca, senza bisogno di codifica.
AIOSEO convalida automaticamente le regole del robots.txt in tempo reale, assicurando che siano formattate correttamente e che funzionino come previsto. In questo modo si evitano errori comuni che potrebbero compromettere l'indicizzazione del sito.
Sì! Se gestite una rete WordPress multisito, potete gestire i file robots.txt per tutti i vostri siti da un'unica dashboard centrale.
Per saperne di più, vedere: Editor Robots.txt per reti multisito.
Assolutamente! Create regole specifiche per i diversi motori di ricerca, in modo da avere un controllo preciso su quali crawler possono accedere ai vostri contenuti.
Sì! AIOSEO rileva automaticamente le regole del robots.txt esistenti e le importa nell'editor visuale per facilitarne la gestione.
Non preoccupatevi! Il nostro sistema di convalida individua gli errori prima che vengano pubblicati e, se necessario, è possibile ripristinare facilmente le modifiche. Il crawling del vostro sito rimane protetto.