Volete aumentare le probabilità che i vostri contenuti siano correttamente crawlati e indicizzati?
Allora sarete entusiasti come noi dell'ultimo aggiornamento del nostro plugin!
Abbiamo ascoltato i vostri commenti e abbiamo aggiunto più potenza e funzionalità al nostro editor robots.txt.
In questo articolo
Clean-param: Ridurre gli spostamenti non necessari
Una delle nuove direttive di crawl che abbiamo aggiunto al nostro editor robots.txt è la direttiva Clean-param.

Questa potente direttiva indica ai bot di ricerca di ignorare i parametri URL come i parametri GET (come gli ID di sessione) e i tag (UTM). Questi possono causare molti problemi per la SEO, tra cui:
- Problemi di contenuti duplicati
- Spreco di budget per il crawl
- Problemi di indicizzazione
Questi fattori fanno sì che i motori di ricerca impieghino più tempo per raggiungere e scansionare le pagine importanti del vostro sito.
Il parametro Clean è una potente funzione che consente di controllare in modo più granulare il modo in cui i motori di ricerca effettuano il crawling del sito. Di conseguenza, aumentano le possibilità di posizionamento delle pagine giuste sui motori di ricerca.
Nota: Clean-param è attualmente supportato solo da Yandex.
Ritardo di strisciamento: Regola la frequenza di strisciamento
Un'altra nuova direttiva nell'editor di robots.txt è la direttiva Crawl-delay.

Crawl-delay è una direttiva utilizzata nel file robots.txt per indicare ai bot dei motori di ricerca la velocità di accesso e di scansione del sito. Questa direttiva è particolarmente utile quando si desidera controllare la frequenza delle visite dei bot per evitare di sovraccaricare il server, soprattutto se le risorse del server sono limitate o il traffico è elevato. Ciò può influire sulle prestazioni del sito o, in alcuni casi estremi, renderlo inaccessibile.
L'aggiunta della direttiva crawl delay può aiutare a non sovraccaricare il server nei periodi in cui si prevede un traffico elevato.
Nota: il ritardo di crawl è supportato solo da Bing, Yahoo e Yandex.
Importazione delle regole Robots.txt da qualsiasi sito
Se state creando un nuovo sito web e volete implementare un file robots.txt di base, potete risparmiare tempo e fatica utilizzando le regole di un sito esistente come punto di partenza.
Per aiutarvi a farlo, abbiamo aggiunto una funzione di importazione al nostro editor di robots.txt.

È possibile utilizzare questa funzione per importare un file robots.txt da un sito inserendo l'URL o visitando il sito e copiando e incollando il file robots.txt.
Se state lavorando su un sito web simile a un altro, potreste scoprire che hanno implementato regole utili che sono applicabili anche al vostro sito. Questo può farvi risparmiare tempo nella creazione delle vostre regole. Inoltre, può aiutarvi a non commettere errori se siete ancora alle prime armi con la modifica dei file robots.txt.
Convalida delle regole e gestione degli errori migliorate
Oltre alle potenti direttive e alla funzionalità di importazione, abbiamo anche migliorato la convalida delle regole e la gestione degli errori nel nostro editor robots.txt. Ciò consente di individuare rapidamente regole in conflitto o altri errori nel robots.txt.

È possibile eliminare facilmente la regola errata facendo clic sull'icona del cestino accanto ad essa.
Con queste ultime aggiunte al nostro plugin, migliorare la crawlabilità e l'indicizzazione è appena diventato più facile. Di conseguenza, il vostro sito e i vostri contenuti avranno maggiori possibilità di posizionarsi in alto nelle pagine dei risultati dei motori di ricerca.
Abbiamo anche aggiunto ulteriori funzionalità avanzate nel nostro editor robots.txt. Per maggiori dettagli, consultate la documentazione.
Oltre a questo importante aggiornamento, abbiamo apportato numerosi miglioramenti di rilievo a molte delle funzioni che amate. Potete vedere tutte le modifiche nel nostro changelog completo del prodotto.
Cosa state aspettando?
Aggiornate il vostro sito ad AIOSEO 4.4.4 per sbloccare queste nuove potenti funzioni e posizionare i vostri contenuti più in alto nelle SERP.
E se non utilizzate ancora AIOSEO, assicuratevi di installare e attivare il plugin oggi stesso.
Se avete domande su queste funzioni, commentate qui sotto o contattate il nostro team di assistenza clienti. Siamo sempre pronti ad aiutarvi. Il nostro impegno per rendere AIOSEO il più semplice e migliore plugin SEO per WordPress è sempre più forte, perché continuiamo a vincere insieme ai nostri clienti.
Siamo molto grati per il vostro continuo supporto, feedback e suggerimenti. Vi invitiamo a continuare a inviare suggerimenti e richieste di funzionalità!
Ci auguriamo che l'utilizzo di queste nuove funzioni SEO sia gradito quanto lo è stato per noi crearle.
-Benjamin Rojas (Presidente dell'AIOSEO).
Divulgazione: I nostri contenuti sono sostenuti dai lettori. Ciò significa che se cliccate su alcuni dei nostri link, potremmo guadagnare una commissione. Raccomandiamo solo prodotti che riteniamo possano apportare un valore aggiunto ai nostri lettori.
Potrebbe comunque essere più facile per chi ha conoscenze tecniche di medio livello. Dopo 2 anni non so ancora se utilizzo tutte le funzioni in modo corretto.
Grazie per aver creato un post su questo argomento. I clienti chiedono sempre come si può ottimizzare il crawling!
Un saluto ai buoni contenuti 🙂
Quali sono le impostazioni da utilizzare per ottenere il miglior seo?