Algunos de sus productos especifican una página de destino (a través del atributo vínculo [link]
) que Google no puede rastrear porque robots.txt no permite que el rastreador de Google la descargue. Estos productos permanecerán rechazados y dejarán de aparecer en sus anuncios de Shopping y fichas de producto gratuitas hasta que podamos rastrear la página de destino.
Actualice el archivo robots.txt de su servidor web para que el rastreador de Google pueda recuperar las páginas de destino proporcionadas. El archivo robots.txt suele encontrarse en el directorio raíz del servidor web (por ejemplo, http://www.example.com/robots.txt).
A fin de que podamos acceder a todo el sitio, asegúrese de que el archivo robots.txt permita que los usuarios-agentes “Googlebot” (que se usa para páginas de destino) y “Googlebot-image” (que se usa para imágenes) rastreen todo el sitio.
Para permitir un rastreo de sitio completo, modifique su archivo robots.txt de la siguiente manera:
User-agent: Googlebot
Disallow:
User-agent: Googlebot-image
Disallow:
Puede obtener más información para configurar robots.tx aquí. Además, puede probar su configuración actual con la Herramienta de inspección de URL.
Si corrigió estos problemas y actualizó los productos mediante la carga de un feed nuevo o Content API, los errores desaparecerán en pocos días. Este tiempo nos permite verificar que podamos rastrear las páginas de destino que proporcionó, tras lo cual los productos comenzarán a aparecer nuevamente en los anuncios de Shopping y las fichas. Si desea acelerar el proceso, puede aumentar la frecuencia de rastreo de Google.