Risolvere i problemi relativi agli errori del crawler di Ad Manager

Ottieni maggiori entrate dai tuoi contenuti consentendo la scansione completa del tuo sito. Per avere la certezza che il sito sia ottimizzato per la scansione, esamina tutti i fattori riportati di seguito che potrebbero influenzarne l'esecuzione.

Garantire l'accesso dei crawler di Google al file robots.txt

Per avere la certezza che possiamo eseguire la scansione dei tuoi siti, devi concedere l'accesso ai crawler di Google.

Se hai modificato il file robots.txt del sito per impedire l'indicizzazione delle tue pagine da parte del crawler di Ad Manager, non potremo pubblicare annunci Google su tali pagine. Aggiorna il file robots.txt per consentire l'accesso del crawler alle tue pagine.

Rimuovi le seguenti due righe di testo dal file robots.txt:

User-agent: Mediapartners-Google
Disallow: /

Questa modifica consentirà al nostro crawler di indicizzare i contenuti del tuo sito e di fornirti gli annunci Google.

Qualsiasi modifica al file robots.txt potrebbe non avere effetto sul nostro indice fintanto che i nostri crawler non cercheranno di visitare nuovamente il tuo sito.

Fornire accesso ai contenuti protetti da login

Se sono presenti contenuti protetti da login, assicurati di aver impostato un login crawler.

In caso contrario, è possibile che i nostri crawler vengano reindirizzati a una pagina di accesso, con conseguente eventuale violazione delle norme di tipo "Nessun contenuto". È anche possibile che ricevano un errore 401 (Non autorizzato) o 407 (Richiesta autenticazione proxy) che impedisce la scansione dei contenuti.

Errori Pagina non trovata

Se l'URL inviato a Google indirizza a una pagina che non esiste (o non esiste più) su un sito o genera un errore 404 (Pagina non trovata), i crawler di Google non possono eseguire la scansione dei contenuti.

Eseguire l'override degli URL

Se esegui l'override dell'URL della pagina nei tag annuncio, i crawler di Google potrebbero non riuscire a recuperare i contenuti della pagina che richiede un annuncio, in particolare se l'URL della pagina sovrascritto ha un formato non valido.

In genere, l'URL della pagina inviato a Google nella richiesta di annuncio deve corrispondere all'URL effettivo della pagina che stai monetizzando, affinché Google possa gestire le informazioni contestuali corrette.

Problemi relativi ai nameserver

Se i nameserver del tuo dominio o sottodominio non indirizzano correttamente i nostri crawler ai contenuti o se esistono restrizioni sulla provenienza delle richieste, è possibile che i crawler non trovino i contenuti.

Reindirizzamenti duplicati o non funzionanti

Se il sito contiene reindirizzamenti, il nostro crawler potrebbe avere difficoltà a seguirli. Ad esempio, se i reindirizzamenti sono numerosi e quelli intermedi non riescono, oppure se durante il processo vengono persi parametri importanti come i cookie, la qualità della scansione potrebbe peggiorare.

Nelle pagine con codice dell'annuncio, ti consigliamo di ridurre al minimo l'utilizzo dei reindirizzamenti e di verificare che siano implementati in modo corretto.

Problemi relativi al webhost

Quando i crawler di Google provano ad accedere ai contenuti del sito, a volte i server non riescono a rispondere in tempo utile. Il problema può dipendere da server inattivi, lenti o con troppe richieste.

Ti consigliamo di verificare che il tuo sito sia ospitato su un server affidabile o da un fornitore di servizi attendibile.

Restrizioni geografiche, di rete o sugli IP

Alcuni siti potrebbero applicare restrizioni che impongono limiti sulle aree geografiche o sugli intervalli IP che possono accedere ai loro contenuti oppure ospitare contenuti su reti o in intervalli IP con restrizioni (ad esempio, 127.0.0.1).

Prova a rimuovere le restrizioni che impediscono ai crawler di Google di raggiungere tutte le pagine o fai in modo che i contenuti siano accessibili pubblicamente, in modo da consentire la scansione degli URL.

Contenuti appena pubblicati

Quando pubblichi una nuova pagina, è possibile che la richiesta di annuncio avvenga prima che i crawler di Google abbiano avuto la possibilità di eseguire la scansione dei contenuti. Tra i siti che pubblicano molti nuovi contenuti ci sono, ad esempio, siti di notizie, siti con contenuti generati dagli utenti, siti con ampi inventari dei prodotti e siti di previsioni meteo.

In genere, dopo la richiesta di annuncio su un nuovo URL, la scansione dei relativi contenuti avviene entro qualche minuto. In questo intervallo di tempo iniziale è però possibile che il volume di annunci sia basso, perché i contenuti non sono ancora stati sottoposti a scansione.

Pagine personalizzate con Parametri URL o percorsi degli URL generati dinamicamente

Alcuni siti web includono negli URL parametri aggiuntivi che identificano l'utente che ha eseguito l'accesso (ad esempio un ID sessione) oppure altre informazioni che potrebbero essere univoche per ogni visita. In questo caso, i crawler di Google potrebbero considerare l'URL come una nuova pagina, anche se i contenuti sono gli stessi. Ciò può comportare un ritardo di qualche minuto tra la prima richiesta di annuncio sulla pagina e il momento in cui la pagina viene sottoposta a scansione, nonché un aumento del carico dei crawler sui server.

Se i contenuti in una pagina non cambiano, ti consigliamo di rimuovere i parametri dall'URL e inviare le informazioni al tuo server web in un altro modo.

Una struttura di URL più semplice agevola la scansione del sito.

Dati POST

Se il sito invia dati POST insieme agli URL (ad esempio se passa i dati dei moduli tramite una richiesta POST), è possibile che rifiuti le richieste che non sono accompagnate da tali dati. Ricorda che i crawler di Google non forniscono dati POST, pertanto una configurazione di questo tipo potrebbe impedire l'accesso dei crawler alla pagina.

Se i contenuti della pagina vengono determinati in base ai dati inseriti nel modulo dall'utente, conviene utilizzare una richiesta GET.

È stato utile?

Come possiamo migliorare l'articolo?
true
Ricerca
Cancella ricerca
Chiudi ricerca
App Google
Menu principale