Este important ca crawlerul Google să vă poată accesa fișierul ads.txt. După ce creați un fișier ads.txt și îl configurați pe domeniul rădăcină, crawlerul Google:
- va încerca să acceseze fișierul cu crawlere;
- va analiza conținutul acestuia pentru a afla care sunt codurile de vânzător autorizate să genereze bani pe baza inventarului dvs.
Remediați problemele legate de accesarea cu crawlere pentru fișierul ads.txt
Pentru a vă asigura că fișierul ads.txt poate fi accesat cu crawlere, vă recomandăm să urmați pașii de remediere a erorilor prezentați în continuare.
(avansat) Acești pași necesită înțelegerea codurilor de stare HTTP și se adresează utilizatorilor avansați.
Asigurați-vă că fișierul nu este temporar indisponibil
Dacă un fișier ads.txt văzut anterior nu este disponibil pentru o accesare ulterioară, atunci intrările văzute anterior:
- vor fi eliminate dacă răspunsul este o eroare 404 completă (pagina nu există; stare HTTP 404);
- vor fi reținute timp de maximum cinci zile dacă răspunsul este o eroare 404 parțială (s-a afișat o pagină reală pentru o adresă URL care nu există; stare HTTP 200) sau o eroare de server 500 .
Asigurați-vă că fișierul poate fi accesat din domeniul rădăcină
Redirecționările de la domain.com/ads.txt
la www.domain.com/ads.txt
sunt obișnuite. Accesarea cu crawlere a fișierului ads.txt va începe de la domeniul rădăcină, iar acesta trebuie să returneze de la sau să redirecționeze la fișierul respectiv.
Un fișier ads.txt de pe www.domain.com/ads.txt
va fi accesat cu crawlere numai dacă domain.com/ads.txt
redirecționează la acesta.
Asigurați-vă că accesarea cu crawlere nu este interzisă de robots.txt
Este posibil ca fișierul ads.txt pentru un domeniu să fie ignorat de crawlere dacă fișierul robots.txt de pe un domeniu interzice unul dintre elementele următoare:
- accesarea cu crawlere a căii adresei URL la care a fost adăugat fișierul ads.txt;
- entitatea user agent a crawlerului.
Pentru example1.com
- Un fișier ads.txt este adăugat la
example1.com/ads.txt
. - În
example1.com/robots.txt
sunt incluse următoarele rânduri:User-agent: *
Disallow: /ads
- Fișierul ads.txt va fi ignorat de crawlerele care respectă standardul robots.txt.
- Puteți modifica fișierul robots.txt după cum urmează, pentru a permite accesarea cu crawlere (pot fi aplicate și alte abordări):
- opțiunea 1: modificați calea interzisă;
User-agent: *
Disallow: /ads/
- opțiunea 2: permiteți explicit fișierul ads.txt; depinde de compatibilitatea crawlerelor cu directiva
Allow
din robots.txt.User-agent: *
Allow: /ads.txt
Disallow: /ads
- opțiunea 1: modificați calea interzisă;
Pentru example2.com
- Un fișier ads.txt este adăugat la
example2.com/ads.txt
. - În
example2.com/robots.txt
sunt incluse următoarele rânduri:User-agent: Googlebot
Disallow: /
- Fișierul ads.txt va fi ignorat de crawlerul Google.
Asigurați-vă că fișierul este returnat cu un cod de stare HTTP 200 OK
Cu toate că o solicitare de fișier ads.txt poate returna conținutul fișierului în conținutul răspunsului, în situația în care codul de stare din antetul răspunsului indică faptul că fișierul nu a fost găsit (de exemplu, cod de stare 404):
- răspunsul va fi ignorat;
- se va considera că fișierul nu există.
Asigurați-vă că fișierul are un cod de stare HTTP 200 OK.
Asigurați-vă că în fișier nu există erori de formatare sau caractere nevalide
Erorile de formatare, cum ar fi caracterele nevalide de spațiu alb, pot fi greu de detectat și pot îngreuna analizarea unui fișier ads.txt de către un crawler. Ca atare, este posibil ca acesta să fie ignorat. Nu copiați și inserați intrări ads.txt dintr-un editor de text îmbogățit. Vă recomandăm să folosiți un editor de text simplu. Puteți verifica și dacă există caractere UTF-8 nevalide în fișierul ads.txt folosind un editor HEX.
Creați un fișier ads.txt accesibil atât prin HTTP, cât și prin HTTPS
Crawlerul Google încearcă să acceseze cu crawlere toate fișierele ads.txt atât prin HTTP, cât și prin HTTPS. Cu toate acestea, un răspuns 404 (sau 40X) duce la eliminarea intrărilor accesate anterior, chiar dacă un fișier ads.txt este accesat prin HTTP. Ca atare, dacă accesarea cu crawlere prin HTTPS returnează un răspuns 404 (sau 40X):
- intrarea accesată anterior va fi eliminată.
Asigurați-vă că fișierul ads.txt poate fi accesat atât prin HTTP, cât și prin HTTPS.