Alguns dos seus produtos especificam uma página de destino (com o atributo de link [link]
) que não pode ser rastreada pelo Google porque o arquivo robots.txt impede o download dela pelo rastreador do Google. Esses produtos permanecerão reprovados e deixarão de ser exibidos nos seus anúncios do Shopping e nas listagens de produto gratuitas até que seja possível rastrear a página de destino.
Atualize o arquivo robots.txt no seu servidor da Web para permitir que o rastreador do Google busque as páginas de destino fornecidas. Geralmente, o arquivo robots.txt pode ser encontrado no diretório raiz do servidor da Web (por exemplo, http://www.exemplo.com/robots.txt).
Para que possamos acessar todo seu site, confirme se o arquivo robots.txt permite que os user agents "Googlebot", usado para páginas de destino, e "Googlebot-image", usado para imagens, façam o rastreamento do site completo.
É possível permitir um rastreamento completo do site alterando o arquivo robots.txt da seguinte forma:
User-agent: Googlebot
Disallow:
User-agent: Googlebot-image
Disallow:
Saiba mais sobre a configuração do arquivo robots.txt neste link. É possível testar as definições atuais com a Ferramenta de inspeção de URL.
Se você corrigiu os problemas e atualizou os produtos com a API Content ou um novo upload de feed, os erros devem desaparecer em alguns dias. Esse tempo é necessário para que possamos rastrear as páginas de destino fornecidas. Depois disso, os itens voltarão a ser exibidos nos seus anúncios e listagens do Shopping. Saiba como aumentar a taxa de rastreamento do Google para acelerar o processo.