As páginas bloqueadas para o Google por um regra de robots.txt geralmente não aparecem nos resultados da Pesquisa, e quando aparecem, não incluem uma descrição.
1. Confirmar se a página está bloqueada pelo robots.txt
Se você tiver verificado a propriedade do site no Search Console, faça o seguinte:
- Abra a Ferramenta de inspeção de URL.
- Inspecione o URL exibido para a página no resultado da pesquisa do Google.Confirme se você selecionou a propriedade do Search Console que tem esse URL.
- Nos resultados da inspeção, confira o status da seção Indexação da página. Se aparecer Bloqueada pelo robots.txt, o problema vai ser confirmado. Vá para a próxima seção para corrigir isso.
Se você não verificou o site no Search Console, faça o seguinte:
- Pesquise um validador de robots.txt.
- No validador, insira o URL da página sem descrição. Use o URL mostrado para a página nos resultados da pesquisa do Google.
- Se o validador informar que a página está bloqueada para o Google, o problema vai ser confirmado. Vá para a próxima seção para corrigir isso.
2. Corrigir a regra
- Use um validador de robots.txt para descobrir qual é a regra que bloqueia a página e onde está o arquivo.
- Corrija ou remova a regra:
- Se você usa um serviço de hospedagem de site, como Wix, Joomla ou Drupal, não podemos dar orientações exatas sobre como atualizar o arquivo robots.txt porque cada serviço tem um jeito próprio de fazer isso. Pesquise na documentação do provedor de hospedagem sobre como desbloquear sites ou páginas para o Google. Sugerimos que você procure termos como "robots.txt nome_do_provedor" ou "desbloquear página para o Google nome_do_provedor". Exemplo de pesquisa: robots.txt Wix
- Se for possível modificar o arquivo diretamente, remova a regra ou faça atualizações de acordo com a sintaxe de robots.txt.