Per alcuni dei tuoi articoli, la pagina di destinazione specificata (tramite l'attributo link [link]
) non puรฒ essere sottoposta a scansione da parte di Google perchรฉ il file robots.txt vieta al crawler di Google di scaricarla. Questi prodotti resteranno disapprovati e non saranno piรน pubblicati negli annunci Shopping e nelle schede di prodotto gratuite finchรฉ non riusciremo a eseguire la scansione della pagina di destinazione.
Aggiorna il file robots.txt sul tuo server web per consentire al crawler di Google di recuperare le pagine di destinazione fornite. In genere, il file robots.txt รจ disponibile nella directory principale del server web (ad esempio http://www.example.com/robots.txt).
Per consentirci di accedere a tutte le sezioni del tuo sito, verifica che il file robots.txt consenta a entrambi gli user agent "Googlebot" (utilizzato per le pagine di destinazione) e "Googlebot-image" (utilizzato per le immagini) di eseguire la scansione dell'intero sito.
Per consentire la scansione dell'intero sito, modifica il file robots.txt nel seguente modo:
User-agent: Googlebot
Disallow:
User-agent: Googlebot-image
Disallow:
Per ulteriori informazioni su come configurare il file robots.txt, fai clic qui. Puoi testare la tua configurazione attuale con lo strumento Controllo URL.
Se hai corretto questi problemi e aggiornato i tuoi prodotti tramite un nuovo caricamento del feed o la Content API, gli errori che vedi dovrebbero scomparire entro un paio di giorni. Questo periodo di tempo ci consente di verificare che tu abbia fornito pagine di destinazione di cui riusciamo a eseguire la scansione, dopodichรฉ i prodotti inizieranno a comparire di nuovo sugli annunci Shopping e nelle schede. Se vuoi accelerare la procedura, puoi aumentare la velocitร di scansione di Google.