Gestione dei siti web

Errori del crawler di AdSense

Un sito web su cui è possibile eseguire una scansione completa può aiutarti ad aumentare le entrate dai contenuti. Per avere la certezza che il sito sia ottimizzato in tal senso, valuta tutti i seguenti problemi che potrebbero influire sulla possibilità di eseguire la scansione. Ulteriori informazioni sul crawler di AdSense.

Concedere l'accesso ai crawler di Google nel file robots.txt

Per avere la certezza che possiamo eseguire la scansione dei tuoi siti, devi concedere l'accesso ai crawler di Google, attivandoli nel file robots.txt. Per istruzioni al riguardo, consulta Come fornire l'accesso al nostro crawler nel file robots.txt.

Fornire l'accesso ai contenuti protetti da login

Se hai contenuti protetti da login, verifica di avere impostato un login crawler. In caso contrario, è possibile che i nostri crawler vengano reindirizzati a una pagina di accesso, con conseguente violazione delle norme di tipo "Nessun contenuto", oppure che ricevano un errore 401 (Non autorizzato) o 407 (Necessaria autenticazione proxy) che impedisce la scansione dei contenuti.

Pagina non trovata

Se l'URL inviato a Google indirizza a una pagina che non esiste (o non esiste più) su un sito o genera un errore 404 ("Pagina non trovata"), i crawler di Google non possono eseguire la scansione dei contenuti.

Eseguire l'override degli URL

Se esegui l'override dell'URL della pagina nei tag annuncio, i crawler di Google potrebbero non riuscire a recuperare i contenuti della pagina che richiede un annuncio, specialmente se il formato dell'URL sovrascritto non è valido. Affinché Google utilizzi le informazioni contestuali corrette, in genere l'URL della pagina inviato a Google nella richiesta di annuncio deve corrispondere a quello effettivo della pagina che stai monetizzando.

Problemi dei server dei nomi

Se i server dei nomi per il tuo dominio o sottodominio non indirizzano correttamente i nostri crawler ai contenuti, oppure se esistono restrizioni sulla provenienza delle richieste, è possibile che i crawler non riescano a trovare i contenuti.

Implementare i reindirizzamenti

Se il sito contiene reindirizzamenti, il nostro crawler potrebbe avere difficoltà a seguirli. Ad esempio, se i reindirizzamenti sono molti e quelli intermedi non riescono, oppure se durante il processo vengono persi parametri importanti come i cookie, la qualità della scansione potrebbe peggiorare. Nelle pagine con codice dell'annuncio, ti consigliamo di utilizzare il meno possibile i reindirizzamenti e verificare che questi ultimi siano implementati correttamente.

Problemi di hosting

Quando i crawler di Google provano ad accedere ai contenuti del sito, a volte i server non riescono a rispondere in tempo. Il problema può dipendere da server inattivi, lenti o con troppe richieste. Verifica che il tuo sito sia ospitato su un server affidabile o che il fornitore di servizi di hosting sia attendibile.

Restrizioni geografiche, di rete o sugli IP

Alcuni siti potrebbero applicare restrizioni relative alle aree geografiche o agli intervalli di indirizzi IP che possono accedere ai contenuti oppure ospitare questi ultimi in reti o intervalli di indirizzi IP con limitazioni (ad es. 127.0.0.1). Prova a rimuovere le restrizioni che impediscono ai crawler di Google di raggiungere tutte le pagine o rendi i contenuti accessibili pubblicamente, in modo che gli URL possano essere sottoposti a scansione.

Contenuti appena pubblicati

Quando pubblichi una nuova pagina, è possibile che alcune richieste di annunci siano effettuate prima che i crawler di Google possano eseguire la scansione dei contenuti. Alcuni esempi di siti con molte nuove pubblicazioni sono quelli che ospitano contenuti generati dagli utenti, notizie, grandi inventari dei prodotti o previsioni meteorologiche. In genere, dopo che è stata effettuata la richiesta di annuncio su un nuovo URL, la scansione dei contenuti avviene entro pochi minuti. In questo intervallo di tempo iniziale è però possibile che il volume di annunci sia basso, perché i contenuti non sono ancora stati sottoposti a scansione.

Pagine personalizzate (con parametri URL o percorsi degli URL generati dinamicamente)

Alcuni siti includono negli URL parametri aggiuntivi che identificano l'utente che ha eseguito l'accesso (ad es. un ID sessione) oppure altre informazioni che potrebbero essere univoche per ogni visita. In questo caso, i crawler di Google potrebbero considerare l'URL una nuova pagina, anche se i contenuti sono gli stessi. Potrebbe in tal modo prodursi un ritardo di qualche minuto tra la prima richiesta di annuncio sulla pagina e il momento in cui questa viene sottoposta a scansione. Si verificherebbe anche un aumento del carico dei crawler sui server. In genere, se i contenuti di una pagina non cambiano, conviene rimuovere i parametri dall'URL e trovare un modo alternativo per conservare le informazioni. Se il sito ha una struttura di URL più semplice, la scansione risulterà agevolata.

Utilizzare dati POST

Se il sito invia dati POST insieme agli URL, ad esempio se trasmette i dati dei moduli tramite una richiesta POST, è possibile che rifiuti le richieste che non sono accompagnate da dati POST. Tieni presente che, dal momento che i crawler di Google non forniscono dati POST, una configurazione di questo tipo impedirebbe l'accesso dei crawler alla pagina. Se i contenuti della pagina vengono determinati in base ai dati inseriti nel modulo dall'utente, conviene utilizzare una richiesta GET.

È stato utile?
Come possiamo migliorare l'articolo?