Gestionarea inventarului

Asigurarea faptului că fișierele dvs. ads.txt pot fi accesate cu crawlere

Este important ca crawlerul Google să vă poată accesa fișierul ads.txt. După ce creați un fișier ads.txt și îl configurați pe domeniul rădăcină, crawlerul Google:

  • va încerca să acceseze fișierul cu crawlere;
  • va analiza conținutul acestuia pentru a afla care sunt codurile de vânzător autorizate să genereze bani pe baza inventarului dvs.
Notă: poate dura câteva zile pentru ca modificările ads.txt să se regăsească în AdSense. Dacă site-ul nu face multe solicitări de anunțuri, poate dura până la o lună.

Remediați problemele legate de accesarea cu crawlere pentru fișierul ads.txt

Pentru a vă asigura că fișierul ads.txt poate fi accesat cu crawlere, vă recomandăm să urmați pașii de remediere a erorilor prezentați în continuare.

Advanced content (avansat)  Acești pași necesită înțelegerea codurilor de stare HTTP și se adresează utilizatorilor avansați.

Asigurați-vă că fișierul nu este temporar indisponibil

Dacă un fișier ads.txt văzut anterior nu este disponibil pentru o accesare ulterioară, atunci intrările văzute anterior:

  • vor fi eliminate dacă răspunsul este o eroare 404 completă (pagina nu există; stare HTTP 404);
  • vor fi reținute timp de maximum cinci zile dacă răspunsul este o eroare 404 parțială (s-a afișat o pagină reală pentru o adresă URL care nu există; stare HTTP 200) sau o eroare de server 500 .

Asigurați-vă că fișierul poate fi accesat din domeniul rădăcină

Redirecționările de la domain.com/ads.txt la www.domain.com/ads.txt sunt obișnuite. Accesarea cu crawlere a fișierului ads.txt va începe de la domeniul rădăcină, iar acesta trebuie să returneze de la sau să redirecționeze la fișierul respectiv.

Un fișier ads.txt de pe www.domain.com/ads.txt va fi accesat cu crawlere numai dacă domain.com/ads.txt redirecționează la acesta.

Asigurați-vă că accesarea cu crawlere nu este interzisă de robots.txt

Este posibil ca fișierul ads.txt pentru un domeniu să fie ignorat de crawlere dacă fișierul robots.txt de pe un domeniu interzice unul dintre elementele următoare:

  • accesarea cu crawlere a căii adresei URL la care a fost adăugat fișierul ads.txt;
  • entitatea user agent a crawlerului.
Exemplu: accesarea cu crawlere este interzisă pentru calea fișierului ads.txt

Pentru example1.com

  1. Un fișier ads.txt este adăugat la example1.com/ads.txt.
  2. În example1.com/robots.txt sunt incluse următoarele rânduri:
    User-agent: *
    Disallow: /ads
  3. Fișierul ads.txt va fi ignorat de crawlerele care respectă standardul robots.txt.
  4. Puteți modifica fișierul robots.txt după cum urmează, pentru a permite accesarea cu crawlere (pot fi aplicate și alte abordări):
    • opțiunea 1: modificați calea interzisă;
      User-agent: *
      Disallow: /ads/
    • opțiunea 2: permiteți explicit fișierul ads.txt; depinde de compatibilitatea crawlerelor cu directiva Allow din robots.txt.
      User-agent: *
      Allow: /ads.txt
      Disallow: /ads
Exemplu: accesarea cu crawlere este interzisă pentru user agent

Pentru example2.com

  1. Un fișier ads.txt este adăugat la example2.com/ads.txt.
  2. În example2.com/robots.txt sunt incluse următoarele rânduri:
    User-agent: Googlebot
    Disallow: /
  3. Fișierul ads.txt va fi ignorat de crawlerul Google.

Asigurați-vă că fișierul este returnat cu un cod de stare HTTP 200 OK

Cu toate că o solicitare de fișier ads.txt poate returna conținutul fișierului în conținutul răspunsului, în situația în care codul de stare din antetul răspunsului indică faptul că fișierul nu a fost găsit (de exemplu, cod de stare 404):

  • răspunsul va fi ignorat;
  • se va considera că fișierul nu există.

Asigurați-vă că fișierul are un cod de stare HTTP 200 OK.

Asigurați-vă că în fișier nu există erori de formatare sau caractere nevalide

Erorile de formatare, cum ar fi caracterele nevalide de spațiu alb, pot fi greu de detectat și pot îngreuna analizarea unui fișier ads.txt de către un crawler. Ca atare, este posibil ca acesta să fie ignorat. Nu copiați și inserați intrări ads.txt dintr-un editor de text îmbogățit. Vă recomandăm să folosiți un editor de text simplu. Puteți verifica și dacă există caractere UTF-8 nevalide în fișierul ads.txt folosind un editor HEX.

Creați un fișier ads.txt accesibil atât prin HTTP, cât și prin HTTPS

Crawlerul Google încearcă să acceseze cu crawlere toate fișierele ads.txt atât prin HTTP, cât și prin HTTPS. Cu toate acestea, un răspuns 404 (sau 40X) duce la eliminarea intrărilor accesate anterior, chiar dacă un fișier ads.txt este accesat prin HTTP. Ca atare, dacă accesarea cu crawlere prin HTTPS returnează un răspuns 404 (sau 40X):

  • intrarea accesată anterior va fi eliminată.

Asigurați-vă că fișierul ads.txt poate fi accesat atât prin HTTP, cât și prin HTTPS.

A fost util?
Cum putem să îmbunătățim această pagină?

Aveți nevoie de mai mult ajutor?

Conectați-vă pentru opțiuni suplimentare de asistență, ca să rezolvați rapid problema