En algunos de sus productos, ha especificado una página de destino (mediante el atributo de enlace [link]
) que no podemos rastrear porque el archivo robots.txt no permite que el rastreador de Google descargue la página. Estos productos seguirán rechazados y dejarán de mostrarse en los anuncios de shopping y en las fichas de producto gratuitas hasta que podamos rastrear la página de destino.
Actualice el archivo robots.txt de su servidor web para que el rastreador de Google pueda obtener las páginas de destino proporcionadas. El archivo robots.txt suele encontrarse en el directorio "root" del servidor web (por ejemplo, http://www.example.com/robots.txt).
Para que podamos acceder a todo su sitio web, debe comprobar que el archivo robots.txt permite rastrear el sitio por completo a los user‑agents "Googlebot" (utilizados para las páginas de destino) y "Googlebot‑image" (empleados para las imágenes).
Para permitir el rastreo de todo el sitio, modifique el archivo robots.txt de la siguiente manera:
User-agent: Googlebot
Disallow:
User-agent: Googlebot-image
Disallow:
Obtenga más información sobre cómo configurar robots.txt. Puede probar su configuración actual con la herramienta de inspección de URLs.
Si ha corregido estos problemas y ha actualizado sus productos subiendo un nuevo feed o mediante la API Content, los errores deberían desaparecer en un par de días. Este plazo nos permite verificar que podemos rastrear las páginas de destino que ha indicado. Una vez que lo hagamos, los productos volverán a aparecer en las fichas y los anuncios de shopping. Si quiere acelerar el proceso, puede aumentar la frecuencia de rastreo de Google.