Gestione degli spazi pubblicitari

Verificare che i file ads.txt possano essere sottoposti a scansione

Dopo aver configurato un file ads.txt nel tuo dominio, il crawler di Google:

  • Tenta di eseguire la scansione del file.
  • Analizza i contenuti del file per stabilire quali ID venditore sono autorizzati a monetizzare il tuo inventario.
Nota: potrebbero essere necessari alcuni giorni prima che le modifiche al file ads.txt vengano applicate in AdSense. Se il tuo sito non fa molte richieste di annunci, l'operazione potrebbe richiedere fino a un mese.

Per avere la certezza che il tuo file ads.txt possa essere sottoposto a scansione, ti consigliamo di applicare la procedura di risoluzione dei problemi indicata di seguito.

Verificare che il file non sia temporaneamente non disponibile

Se un file ads.txt visualizzato in precedenza risulta non disponibile a una scansione successiva, le voci già visualizzate saranno:

  • Eliminate se la risposta è un errore hard 404 (pagina che in realtà non esiste, stato HTTP 404).
  • Conservate per un massimo di cinque giorni se la risposta è un errore soft 404 (restituzione di una pagina reale per un URL che in realtà non esiste, stato HTTP 200) o un errore del server 500.

Verificare che il file sia raggiungibile dal dominio principale

I reindirizzamenti da domain.com/ads.txt a www.domain.com/ads.txt sono abbastanza comuni. La scansione di ads.txt inizia nel dominio principale. Questo è il dominio che deve essere restituito dal o deve reindirizzare al file ads.txt.

La scansione di un file ads.txt in www.domain.com/ads.txt potrà avvenire solo se domain.com/ads.txt reindirizza al file.

Verificare che la scansione non sia bloccata da robots.txt

È possibile che i crawler ignorino un file ads.txt per un dominio se il file robots.txt di un dominio disattiva uno dei seguenti elementi:

  • La scansione del percorso dell'URL su cui viene caricato un file ads.txt.
  • L'agente utente del crawler.
Esempio: scansione non consentita sul percorso del file ads.txt

Esempio1.com:

  1. Un file ads.txt viene caricato in esempio1.com/ads.txt.
  2. Le seguenti righe sono incluse in esempio1.com/robots.txt:
    User-agent: *
    Disallow: /ads
  3. Il file ads.txt verrà ignorato dai crawler che rispettano lo standard robots.txt.
  4. Sono possibili diversi approcci per consentire la scansione del file, tra i quali modificare il file robots.txt come segue:
    • Opzione 1: modifica il percorso non consentito.
      User-agent: *
      Disallow: /ads/
    • Opzione 2: consenti esplicitamente ads.txt. L'operazione può essere eseguita se il crawler supporta l'istruzione Allow di robots.txt.
      User-agent: *
      Allow: /ads.txt
      Disallow: /ads
Esempio: scansione non consentita per agente utente

Esempio2.com:

  1. Un file ads.txt viene caricato in esempio2.com/ads.txt.
  2. Le seguenti righe sono incluse in esempio2.com/robots.txt:
    User-agent: Googlebot
    Disallow: /
  3. Il file ads.txt verrà ignorato dal crawler di Google.

Verificare che il file venga restituito con un codice di stato HTTP 200 OK

Sebbene la richiesta di un file ads.txt possa restituirne i contenuti nel testo della risposta, se il codice di stato nell'intestazione della risposta indica che il file non è stato trovato (ad es. codice di stato 404):

  • La risposta verrà ignorata.
  • Il file verrà considerato inesistente.

Assicurati che il codice di stato del file sia HTTP 200 OK.

Verificare che il file non contenga errori di formattazione o caratteri non validi

Eventuali errori di formattazione difficilmente individuabili, ad esempio spazi vuoti non validi, possono complicare l'analisi di un file ads.txt da parte di un crawler ed è possibile che il file venga ignorato. Evita di copiare e incollare voci di ads.txt ricavate da un editor RTF. Utilizza piuttosto un editor di testo normale.

Rendere un file ads.txt accessibile sia tramite HTTP che HTTPS

Il crawler di Google tenta di eseguire la scansione di tutti i file ads.txt presenti sia su HTTP che su HTTPS. Tuttavia, una risposta 404 (o 40X) causa l'eliminazione delle voci già sottoposte a scansione, anche se la scansione del file ads.txt viene eseguita tramite HTTP. Di conseguenza, se una scansione tramite HTTPS restituisce un codice 404 (o 40X):

  • Le voci precedentemente sottoposte a scansione vengono eliminate.

Assicurati che i file ads.txt siano accessibili sia tramite HTTP che HTTPS.

È stato utile?
Come possiamo migliorare l'articolo?