robots.txt

robots.txt é o nome do arquivo de texto que informa aos mecanismos de pesquisa quais URLs ou diretórios de um site não devem ser rastreados. O arquivo tem regras que bloqueiam certos URLs ou diretórios inteiros para todos os rastreadores ou alguns deles. Ele é criado pelo proprietário do site e armazenado no diretório principal para evitar que se gastem tempo e energia atendendo às solicitações de rastreamento de páginas ou recursos (como imagens) que não são importantes o suficiente para aparecer nos resultados da pesquisa.Em casos de sites pequenos, geralmente não é necessário um arquivo robots.txt.

Use o robots.txt apenas para evitar o rastreamento, e não para impedir que uma página apareça nos resultados da pesquisa. Para isso, use outras técnicas. Saiba mais sobre o arquivo robots.txt.

Isso foi útil?

Como podemos melhorá-lo?
true
Chegou agora ao Search Console?

Nunca usou o Search Console antes? Comece aqui. Temos informações para todos, dos novatos aos especialistas em SEO ou desenvolvedores de sites.

Pesquisa
Limpar pesquisa
Fechar pesquisa
Google Apps
Menu principal