Remedierea erorilor legate de paginile de destinație care nu pot fi accesate cu crawlere dintr-o campanie cu grupuri de anunțuri dinamice

Pasul 1: identificați adresa URL care nu poate fi accesată cu crawlere

Paginile care nu pot fi accesate cu crawlere pot avea 3 efecte asupra anunțurilor dinamice afișate în rețeaua de căutare:

  • dacă selectați URL-Equals drept tip de direcționare și dacă adresa URL nu poate fi accesată cu crawlere, direcționarea dinamică a anunțului va avea starea „Respinsă: pagina nu poate fi accesată cu crawlere”; 
  • dacă folosiți feeduri de pagini și dacă o adresă URL din feed nu poate fi accesată cu crawlere, pe rândul corespunzător adresei respective din arhiva comună va apărea starea „Respinsă: pagina nu poate fi accesată cu crawlere”;
  • dacă folosiți orice alt mecanism de direcționare și dacă o adresă URL nu este sau nu poate fi accesată cu crawlere, Google Ads nu va ști că există, deci nu va apărea niciun mesaj de eroare. Dacă o adresă URL pe care încercați să o vizați nu înregistrează trafic, puteți remedia problema vizând-o, mai întâi, prin URL-Equals sau feeduri de pagini. Există două continuări posibile: adresa URL va înregistra trafic sau va apărea o eroare care va explica de ce nu înregistrează trafic.

Pasul 2: asigurați-vă că Google AdsBot poate accesa pagina de destinație

  1. Copiați adresa URL și inserați-o în bara de adrese a unui browser web.
  2. Adăugați /robots.txt la finalul numelui domeniului, apoi apăsați pe Enter. (De exemplu, dacă pagina de destinație este http://www.example.com/folder1/folder2/, accesați http://www.example.com/robots.txt pentru a afla ce roboți au permisiunea de a accesa cu crawlere domeniul.)
  3. Căutați rândul User-agent: AdsBot-Google.
    • Dacă nu apare, colaborați cu webmasterul pentru a-l adăuga.
    • Dacă pagina este goală, colaborați cu webmasterul pentru a adăuga un fișier robots.txt pe domeniu.
    • Dacă User-agent: AdsBot-Google apare, asigurați-vă că nu este urmat de un rând cu textul Disallow: /. În plus, asigurați-vă că AdsBot-Google nu este restricționat de un alt rând din fișier. Despre fișierele robots.txt și crawlerele Google
  4. Dacă pagina de destinație este un subdomeniu, verificați dacă acesta are un fișier robots.txt separat. De exemplu, https://subdomain.domain.com/robots.txt. Asigurați-vă că robots.txt permite și User-agent: AdsBot-Google.
  5. Deschideți sursa adresei URL. În Chrome, puteți face acest lucru deschizând view-source:THE_URL. De exemplu, dacă pagina de destinație este http://www.example.com/folder1/folder2/, puteți accesa view-source:http://www.example.com/folder1/folder2/ pentru a afla ce roboți au permisiunea de a accesa domeniul.)
  6. Căutați șirul „AdsBot-Google”.

Alte motive pentru care o pagină de destinație nu poate fi accesată cu crawlere

Dacă Google AdsBot are permisiunea de a accesa pagina de destinație (User-agent: AdsBot-Google este deja inclus în fișierul robots.txt), poate exista un alt motiv pentru care pagina nu poate fi accesată cu crawlere.

  • Pagina de destinație nu se încarcă. Dacă deschideți pagina într-un browser web și apare o eroare (de exemplu, „404 - pagina nu a fost găsită”, „Site-ul nu poate fi accesat”, „Sesiunea a expirat”), luați legătura cu webmasterul site-ului pentru a vă asigura că pagina de destinație se încarcă în orice mediu (dispozitive mobile sau computere) sau browser.
  • Pagina de destinație impune conectare. Toate paginile de destinație ale anunțurilor trebuie să poată fi accesate de public. Folosiți o altă pagină de destinație sau colaborați cu webmasterul pentru a anula cerința de conectare.
  • Pagina de destinație are prea multe redirecționări. Numărul maxim permis de redirecționări este 10. Colaborați cu webmasterul pentru a reduce numărul de redirecționări. Aflați mai multe despre redirecționările web

 

A fost util?

Cum putem să îmbunătățim această pagină?
Căutare
Șterge căutarea
Închide căutarea
Meniu principal
10221273554795149703
true
Căutaţi în Centrul de ajutor
true
true
true
true
true
73067
false
false
false