#1 Gerador e editor de Robots.txt para WordPress
Controle como os mecanismos de pesquisa rastreiam seu site sem código
Pare de ter dificuldades com as regras do robots.txt. O Robot.txt Editor da AIOSEO ajuda a controlar os rastreadores dos mecanismos de pesquisa com facilidade, evitando erros de indexação e protegendo o conteúdo confidencial.

Faça alterações facilmente no Robots.txt em seu painel do WordPress
Precisa de uma maneira fácil de editar o robots.txt no WordPress?
Com o All in One SEO, você pode facilmente assumir o controle do seu site e configurar um arquivo robots.txt para substituir o arquivo padrão do WordPress.
Explore todos os nossos recursos avançados de SEO
Aqui estão todos os recursos que fazem do All in One SEO o melhor plugin de SEO para WordPress.
Melhore suas classificações de SEO do WordPress com o AIOSEO
Obtenha o plug-in de SEO All in One para WordPress mais avançado e melhore as classificações de pesquisa do seu site hoje mesmo.
(Download instantâneo)
Recursos de SEO ainda mais avançados
- Adicione facilmente título, meta descrição, palavras-chave e tudo o que você precisa para a otimização de SEO na página
- Suporte completo ao Google Knowledge Graph e aos rich snippets do Schema
- Conecte-se facilmente com as ferramentas para webmasters do Google Search Console, Bing, Yandex, Baidu e Pinterest
- Suporte avançado de SEO para comércio eletrônico para o WooCommerce, para que você possa otimizar páginas de produtos, categorias de produtos e muito mais.
- Notificar automaticamente os mecanismos de pesquisa, como Google e Bing, sobre alterações em seu site.
Como criar e otimizar o arquivo Robots.txt no WordPress
Você está tendo problemas para criar ou editar um arquivo robots.txt para o seu site WordPress? Em caso afirmativo, não é preciso procurar mais. Este guia ensinará a você como criar um robots.txt no WordPress perfeitamente otimizado usando o All in One SEO, o melhor plugin de SEO para WordPress do mercado.
O que é o Robots.txt?
Robots.txt é um arquivo de texto que contém instruções, também conhecidas como diretivas, para os bots dos mecanismos de pesquisa. Os proprietários de sites o utilizam para evitar que os mecanismos de pesquisa rastreiem páginas desnecessárias em seus sites. Ele também fornece dicas aos mecanismos de pesquisa sobre a melhor forma de navegar e indexar seu site.
Aqui está um exemplo típico de robots.txt do WordPress:
User-agent: *
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-admin/
Disallow: /wp-content/uploads/wpforms/
Disallow: /xmlrpc.php
Sitemap: https://aioseo.com/video-sitemap.xml
Sitemap: https://aioseo.com/sitemap.xml
Sitemap: https://aioseo.com/sitemap.rss
Antes de discutirmos o arquivo robots.txt no exemplo acima, vamos dar uma olhada nos principais componentes de um arquivo robots.txt.
- Agente do usuário: User-agent é o que os bots de pesquisa usam para se identificar. Você pode usar essa diretiva para direcionar bots de mecanismos de pesquisa específicos. Por exemplo, se você quiser que apenas o Google rastreie seu site, adicione googlebot no lugar de *. O * indica que todos os mecanismos de busca, como Google, Bing, Yahoo e outros, têm permissão para rastrear seu site.
- Permitir: Isso indica que o mecanismo de pesquisa tem permissão para rastrear essa seção específica do site.
- Não permitir: Usando essa diretiva, você pode dizer aos mecanismos de pesquisa para não acessarem determinadas páginas ou arquivos do seu site.
Voltando ao exemplo do robots.txt, permitimos que todos os mecanismos de pesquisa rastreiem nosso site usando a diretiva user-agent: *. Também permitimos e não permitimos URLs com base em como queremos que o Google rastreie nosso site.
Ao usar o arquivo robots.txt, você também pode enviar vários sitemaps. Em nosso arquivo robots.txt, enviamos um mapa do site de vídeo separado que temos em nosso site. Isso facilita a localização, o rastreamento e a indexação dos vídeos do nosso site pelos mecanismos de pesquisa.
Um mapa do site é um mapa de navegação de seu site. Ele informa aos mecanismos de pesquisa quantas páginas você tem em seu site. Com o WordPress Sitemap Generator da AIOSEO, você pode criar e enviar facilmente seus sitemaps.
Muitas pessoas também perguntam: "Onde está o robots.txt no WordPress?", caso queiram fazer edições.
O local do arquivo robots.txt do WordPress fica no diretório raiz do seu site WordPress. Você pode visualizar o arquivo conectando-se ao seu site usando um cliente FTP ou o cPanel.
Mas você não precisará ir tão longe se estiver usando o AIOSEO. Ele permite que você edite e visualize seu arquivo robots.txt no painel do WordPress. Não há necessidade de um plug-in separado para o robots.txt do WordPress. Falaremos mais sobre isso em detalhes mais adiante neste guia.
Você também pode visualizá-lo on-line digitando o nome do seu domínio seguido do texto "robots.txt". Por exemplo, https://www.example.com/robots.txt.
Agora que você sabe o que é um arquivo robots.txt e como ele se parece, vamos falar sobre por que ele é importante para o seu site.
Por que você precisa de um arquivo Robots.txt para seu site WordPress?
O arquivo robots.txt permite que você controle como os mecanismos de pesquisa rastreiam e indexam seu site. Sem o arquivo robots.txt, os mecanismos de pesquisa rastrearão todo o seu site, mesmo as páginas que não são importantes.
Se você não impedir que os bots de busca rastreiem páginas desnecessárias, eles usarão todo o seu orçamento de rastreamento e talvez não rastreiem as páginas que você deseja que eles rastreiem.
Crawl budget é o nível de atenção que um mecanismo de pesquisa como o Google dá ao seu site. Isso se baseia na frequência com que os mecanismos de pesquisa gostam de rastrear seu site e na frequência com que ele pode ser rastreado.
Se você estiver desperdiçando seu orçamento de rastreamento, o Google e outros mecanismos de pesquisa não conseguirão rastrear seu site com eficiência, o que pode prejudicar o desempenho do site.
Cada site tem um orçamento de rastreamento limitado. Os bots dos mecanismos de busca rastreiam apenas um determinado número de páginas durante sua sessão de rastreamento.
Se o bot não rastrear todo o seu site na primeira sessão de rastreamento, ele voltará e rastreará as páginas restantes na próxima sessão.
Dependendo do seu site, as próximas sessões de rastreamento podem demorar dias. Isso pode tornar a indexação do seu site mais lenta, e suas páginas importantes não serão rastreadas e indexadas nos mecanismos de busca. Isso pode levar a uma enorme perda de tráfego e de negócios.
Você pode corrigir isso rapidamente desautorizando as páginas desnecessárias do seu site, como a página de administração do WordPress, os arquivos de plug-in e a pasta de temas. Isso ajudará a economizar seu orçamento de rastreamento e a melhorar sua taxa de indexação.
Agora, vamos passar à parte em que informamos como visualizar, editar, criar e enviar o arquivo robots.txt usando o AIOSEO.
Como criar um arquivo Robots.txt para seu site WordPress?
O All in One SEO (AIOSEO) facilita muito a criação e a edição do arquivo robots.txt no WordPress.
Tudo o que você precisa fazer é ir até o painel do WordPress e acessar All in One SEO " Tools.

Em seguida, você será levado à página Robots.txt Editor. A partir daí, você pode adicionar ou editar facilmente o arquivo robots.txt usando o formulário.

Com o AIOSEO, você não precisará se preocupar com a formatação do arquivo robots.txt. Tudo o que você precisa fazer é adicionar diretivas aos campos, e o AIOSEO fará o resto.
Depois de adicionar as diretivas, clique em Save Changes (Salvar alterações) para concluir a configuração.
Agora que você criou o arquivo robots.txt, é necessário testá-lo para ver se há algum erro.
Teste seu arquivo Robots.txt do WordPress
Para testar seu arquivo robots.txt, basta acessar a ferramenta de teste do robots.txt e fazer login com sua conta do console de pesquisa do Google.
Em seguida, digite "robots.txt" no campo URL e clique em Testar.

Se o arquivo robots.txt for validado, você receberá a mensagem Allowed (Permitido). Caso contrário, você receberá os erros e avisos destacados na caixa.

E pronto! Agora você criou e validou com êxito seu arquivo robots.txt do WordPress.
Esperamos que este guia tenha ajudado você a aprender como criar um arquivo robots.txt otimizado para o seu site WordPress usando o AIOSEO.
Perguntas frequentes sobre o editor Robots.txt do AIOSEO
Obtenha respostas rápidas sobre como gerenciar seu arquivo robots.txt do WordPress com o All in One SEO. Se a sua pergunta não estiver listada aqui, entre em contato conosco.
Um arquivo robots.txt informa aos mecanismos de pesquisa quais partes do seu site podem ou não ser acessadas. Ele é fundamental para controlar como os mecanismos de pesquisa rastreiam o seu site e proteger o conteúdo confidencial.
Não! Nosso editor visual elimina a necessidade de conhecimento técnico. Crie e modifique regras com controles simples de apontar e clicar, sem necessidade de codificação.
O AIOSEO valida automaticamente suas regras de robots.txt em tempo real, garantindo que elas estejam formatadas corretamente e funcionem como pretendido. Isso evita erros comuns que podem afetar a indexação do seu site.
Sim! Se você tiver uma rede WordPress com vários sites, poderá gerenciar os arquivos robots.txt de todos os seus sites em um painel central.
Para saber mais, consulte: Editor Robots.txt para redes de vários sites.
Com certeza! Crie regras específicas para diferentes mecanismos de pesquisa, o que lhe dá um controle preciso sobre quais rastreadores podem acessar seu conteúdo.
Sim! O AIOSEO detecta automaticamente suas regras de robots.txt existentes e as importa para o editor visual para facilitar o gerenciamento.
Não se preocupe! Nosso sistema de validação captura os erros antes que eles sejam publicados, e você pode reverter facilmente as alterações, se necessário. O rastreamento do seu site permanece protegido.