robots.txt

robots.txt é o nome do arquivo de texto que informa aos mecanismos de pesquisa quais URLs ou diretórios de um site não devem ser rastreados. O arquivo tem regras que bloqueiam certos URLs ou diretórios inteiros para todos os rastreadores ou alguns deles. Ele é criado pelo proprietário do site e armazenado no diretório principal para evitar que se gastem tempo e energia atendendo às solicitações de rastreamento de páginas ou recursos (como imagens) que não são importantes o suficiente para aparecer nos resultados da pesquisa.Em casos de sites pequenos, geralmente não é necessário um arquivo robots.txt.

Use o robots.txt apenas para evitar o rastreamento, e não para impedir que uma página apareça nos resultados da pesquisa. Para isso, use outras técnicas. Saiba mais sobre o arquivo robots.txt.

Isso foi útil?

Como podemos melhorá-lo?
true
Chegou agora ao Search Console?

Nunca usou o Search Console antes? Comece aqui. Temos informações para todos, dos novatos aos especialistas em SEO ou desenvolvedores de sites.

Pesquisa
Limpar pesquisa
Fechar pesquisa
Menu principal
4256732669212512614
true
Pesquisar na Central de Ajuda
true
true
true
true
true
83844
false
false