O X-Robots-Tag é um cabeçalho HTTP usado para comunicar instruções a rastreadores da web e bots de mecanismos de busca sobre como eles devem lidar com a indexação e o fornecimento de uma página da web ou recurso. Ele permite que os proprietários de sites controlem a indexação e a aparência de suas páginas nos resultados de pesquisa em uma base de página por página ou de recurso por recurso.
O cabeçalho X-Robots-Tag pode incluir uma ou mais diretivas, separadas por vírgulas. Algumas diretivas comuns são:
- noindex: Instruí os mecanismos de busca a não indexar a página ou recurso.
- nofollow: Instruí os mecanismos de busca a não seguir os links da página.
- noarchive: Instruí os mecanismos de busca a não armazenar em cache ou exibir uma versão em cache da página.
- nosnippet: Instruí os mecanismos de busca a não exibir um snippet ou descrição da página nos resultados de pesquisa.
- max-snippet:[número]: Especifica o comprimento máximo de caracteres para snippets nos resultados de pesquisa.
- max-image-preview:[configuração]: Especifica o tamanho máximo de pré-visualizações de imagens nos resultados de pesquisa (none, standard, large).
- max-video-preview:[número]: Especifica o número máximo de segundos para pré-visualizações de vídeos nos resultados de pesquisa.
Exemplo de uso do X-Robots-Tag:
X-Robots-Tag: noindex, nofollow, max-snippet:150, max-image-preview:standard
Neste exemplo, as diretivas instruem os mecanismos de busca a não indexar a página, a não seguir seus links, a limitar o comprimento do snippet a 150 caracteres e a mostrar pré-visualizações de imagens em tamanho padrão nos resultados de pesquisa.
O cabeçalho X-Robots-Tag oferece controle mais granular sobre indexação e fornecimento do que a meta tag robots, que é colocada dentro da seção HTML de uma página.
Enquanto a meta tag robots é limitada a controlar a indexação e o seguimento de links, o cabeçalho X-Robots-Tag oferece diretivas adicionais para gerenciar snippets, pré-visualizações e cache.
Usando o cabeçalho X-Robots-Tag, os proprietários de sites podem ajustar como suas páginas aparecem nos resultados de pesquisa e controlar as informações que os mecanismos de busca exibem aos usuários. Isso pode ser útil para gerenciar conteúdo duplicado, impedir a indexação de páginas sensíveis ou personalizar a aparência das listagens de pesquisa para otimizar as taxas de cliques e o engajamento do usuário.