[Maggiore personalizzazione del file Robots.txt per una migliore crawlabilità

Volete aumentare le probabilità che i vostri contenuti siano correttamente crawlati e indicizzati?

Allora sarete entusiasti come noi dell'ultimo aggiornamento del nostro plugin!

Abbiamo ascoltato i vostri commenti e abbiamo aggiunto più potenza e funzionalità al nostro editor robots.txt.

Clean-param: Ridurre gli spostamenti non necessari

Una delle nuove direttive di crawl che abbiamo aggiunto al nostro editor robots.txt è la direttiva Clean-param

Direttiva Clean-param.

Questa potente direttiva indica ai bot di ricerca di ignorare i parametri URL come i parametri GET (come gli ID di sessione) e i tag (UTM). Questi possono causare molti problemi per la SEO, tra cui:

  • Problemi di contenuti duplicati
  • Spreco di budget per il crawl
  • Problemi di indicizzazione

Questi fattori fanno sì che i motori di ricerca impieghino più tempo per raggiungere e scansionare le pagine importanti del vostro sito.

Il parametro Clean è una potente funzione che consente di controllare in modo più granulare il modo in cui i motori di ricerca effettuano il crawling del sito. Di conseguenza, aumentano le possibilità di posizionamento delle pagine giuste sui motori di ricerca.

Ritardo di strisciamento: Regola la frequenza di strisciamento 

Un'altra nuova direttiva nell'editor di robots.txt è la direttiva Crawl-delay.

Direttiva Crawl-delay.

Crawl-delay è una direttiva utilizzata nel file robots.txt per indicare ai bot dei motori di ricerca la velocità di accesso e di scansione del sito. Questa direttiva è particolarmente utile quando si desidera controllare la frequenza delle visite dei bot per evitare di sovraccaricare il server, soprattutto se le risorse del server sono limitate o il traffico è elevato. Ciò può influire sulle prestazioni del sito o, in alcuni casi estremi, renderlo inaccessibile.

L'aggiunta della direttiva crawl delay può aiutare a non sovraccaricare il server nei periodi in cui si prevede un traffico elevato.

Importazione delle regole Robots.txt da qualsiasi sito

Se state creando un nuovo sito web e volete implementare un file robots.txt di base, potete risparmiare tempo e fatica utilizzando le regole di un sito esistente come punto di partenza.

Per aiutarvi a farlo, abbiamo aggiunto una funzione di importazione al nostro editor di robots.txt.

È possibile importare un file robots.txt da un altro sito.

È possibile utilizzare questa funzione per importare un file robots.txt da un sito inserendo l'URL o visitando il sito e copiando e incollando il file robots.txt.

Se state lavorando su un sito web simile a un altro, potreste scoprire che hanno implementato regole utili che sono applicabili anche al vostro sito. Questo può farvi risparmiare tempo nella creazione delle vostre regole. Inoltre, può aiutarvi a non commettere errori se siete ancora alle prime armi con la modifica dei file robots.txt.

Convalida delle regole e gestione degli errori migliorate

Oltre alle potenti direttive e alla funzionalità di importazione, abbiamo anche migliorato la convalida delle regole e la gestione degli errori nel nostro editor robots.txt. Ciò consente di individuare rapidamente regole in conflitto o altri errori nel robots.txt.

Validatore delle regole di Robots.txt.

È possibile eliminare facilmente la regola errata facendo clic sull'icona del cestino accanto ad essa.

Con queste ultime aggiunte al nostro plugin, migliorare la crawlabilità e l'indicizzazione è appena diventato più facile. Di conseguenza, il vostro sito e i vostri contenuti avranno maggiori possibilità di posizionarsi in alto nelle pagine dei risultati dei motori di ricerca.

Oltre a questo importante aggiornamento, abbiamo apportato numerosi miglioramenti di rilievo a molte delle funzioni che amate. Potete vedere tutte le modifiche nel nostro changelog completo del prodotto.

Cosa state aspettando? 

Aggiornate il vostro sito ad AIOSEO 4.4.4 per sbloccare queste nuove potenti funzioni e posizionare i vostri contenuti più in alto nelle SERP.

E se non utilizzate ancora AIOSEO, assicuratevi di installare e attivare il plugin oggi stesso

Se avete domande su queste funzioni, commentate qui sotto o contattate il nostro team di assistenza clienti. Siamo sempre pronti ad aiutarvi. Il nostro impegno per rendere AIOSEO il più semplice e migliore plugin SEO per WordPress è sempre più forte, perché continuiamo a vincere insieme ai nostri clienti.

Siamo molto grati per il vostro continuo supporto, feedback e suggerimenti. Vi invitiamo a continuare a inviare suggerimenti e richieste di funzionalità!

Ci auguriamo che l'utilizzo di queste nuove funzioni SEO sia gradito quanto lo è stato per noi crearle.

-Benjamin Rojas (Presidente dell'AIOSEO).

Divulgazione: I nostri contenuti sono sostenuti dai lettori. Ciò significa che se cliccate su alcuni dei nostri link, potremmo guadagnare una commissione. Raccomandiamo solo prodotti che riteniamo possano apportare un valore aggiunto ai nostri lettori.

avatar dell'autore
Ben Rojas Presidente di AIOSEO
Ben Rojas è uno sviluppatore esperto di WordPress e presidente di All in One SEO (AIOSEO). Con una solida base nel settore IT di oltre 25 anni, Ben ha sviluppato una profonda competenza in materia di tecnologia e paesaggi digitali.

Aggiungi un commento

Siamo lieti che abbia scelto di lasciare un commento. Tenete presente che tutti i commenti sono moderati in base alla nostra politica sulla privacy e che tutti i link sono nofollow. NON utilizzare parole chiave nel campo del nome. Avremo una conversazione personale e significativa.

3 commenti su "[Nuovo] Maggiore personalizzazione del file Robots.txt per migliorare la crawlabilità".

  1. Potrebbe comunque essere più facile per chi ha conoscenze tecniche di medio livello. Dopo 2 anni non so ancora se utilizzo tutte le funzioni in modo corretto.

  2. Grazie per aver creato un post su questo argomento. I clienti chiedono sempre come si può ottimizzare il crawling!

    Un saluto ai buoni contenuti 🙂