Desbloquear páginas bloqueadas pelo robots.txt

As páginas bloqueadas para o Google por um regra de robots.txt geralmente não aparecem nos resultados da Pesquisa, e quando aparecem, não incluem uma descrição.

1. Confirmar se a página está bloqueada pelo robots.txt

Se você tiver verificado a propriedade do site no Search Console, faça o seguinte:

  1. Abra a Ferramenta de inspeção de URL.
  2. Inspecione o URL exibido para a página no resultado da pesquisa do Google.Confirme se você selecionou a propriedade do Search Console que tem esse URL.
  3. Nos resultados da inspeção, confira o status da seção Indexação da página. Se aparecer Bloqueada pelo robots.txt, o problema vai ser confirmado. Vá para a próxima seção para corrigir isso.

Se você não verificou o site no Search Console, faça o seguinte:

  1. Pesquise um validador de robots.txt.
  2. No validador, insira o URL da página sem descrição. Use o URL mostrado para a página nos resultados da pesquisa do Google.
  3. Se o validador informar que a página está bloqueada para o Google, o problema vai ser confirmado. Vá para a próxima seção para corrigir isso.

2. Corrigir a regra

  1. Use um validador de robots.txt para descobrir qual é a regra que bloqueia a página e onde está o arquivo.
  2. Corrija ou remova a regra:
    • Se você usa um serviço de hospedagem de site, como Wix, Joomla ou Drupal, não podemos dar orientações exatas sobre como atualizar o arquivo robots.txt porque cada serviço tem um jeito próprio de fazer isso. Pesquise na documentação do provedor de hospedagem sobre como desbloquear sites ou páginas para o Google. Sugerimos que você procure termos como "robots.txt nome_do_provedor" ou "desbloquear página para o Google nome_do_provedor". Exemplo de pesquisa: robots.txt Wix
    • Se for possível modificar o arquivo diretamente, remova a regra ou faça atualizações de acordo com a sintaxe de robots.txt.

Isso foi útil?

Como podemos melhorá-lo?
Pesquisa
Limpar pesquisa
Fechar pesquisa
Google Apps
Menu principal
9151490869626952495
true