Certains de vos produits renvoient vers une page de destination (via l'attribut lien [link]
) qui ne peut pas être explorée par Google, car le fichier robots.txt interdit au robot d'exploration Google de la télécharger. Ces produits seront refusés et cesseront d'être diffusés dans vos annonces Shopping et dans vos fiches produit gratuites tant que nous ne serons pas en mesure d'explorer la page de destination.
Veuillez mettre à jour le fichier robots.txt sur votre serveur Web afin de permettre au robot d'exploration Google de récupérer les pages de destination fournies. Ce fichier se trouve généralement dans le répertoire racine du serveur Web (par exemple, http://www.example.com/robots.txt).
Pour nous permettre d'accéder à l'intégralité de votre site, veillez à ce que votre fichier robots.txt autorise les user-agents "Googlebot" (utilisé pour les pages de destination) et "Googlebot-image" (utilisé pour les images) à explorer tout votre site.
Pour cela, modifiez le fichier comme suit :
User-agent: Googlebot
Disallow:
User-agent: Googlebot-image
Disallow:
Pour découvrir comment configurer le fichier robots.txt, cliquez ici. Vous pouvez tester votre configuration actuelle à l'aide de l'outil d'inspection d'URL.
Si vous avez corrigé ces problèmes et mis à jour les produits via une nouvelle importation de flux ou via Content API, les erreurs devraient disparaître sous deux jours. Ce délai nous permet de vérifier la disponibilité des pages de destination, et de réactiver l'affichage des produits concernés dans vos annonces Shopping et vos fiches. Si vous voulez accélérer le processus, vous pouvez augmenter la vitesse d'exploration de Google.