Hakbang 1: Hanapin ang hindi ma-crawl na URL
Maaaring makaapekto ang mga hindi ma-crawl na page sa iyong mga Dynamic na Search ad sa 3 paraan:
- Kung pipiliin mo ang
URL-Equals
bilang ang iyong uri ng pag-target at hindi ma-crawl ang URL mo, makikita mo ang status na "Hindi Naaprubahan: Hindi ma-crawl ang page" sa iyong dynamic na target ng ad. - Kung gagamit ka ng mga page feed at may URL sa iyong feed na hindi ma-crawl, makikita mo ang status na "Hindi Naaprubahan: Hindi ma-crawl ang page" sa row para sa URL na iyon sa nakabahaging library.
- Kung gagamit ka ng anumang iba pang mekanismo ng pag-target at may URL na hindi ma-crawl, hindi ito malalaman ng Google Ads, kaya walang ipapakitang mensahe ng error. Kung hindi nakakatanggap ng trapiko ang isang URL na sinusubukan mong i-target, maaari mong i-troubleshoot ito sa pamamagitan ng pag-target muna rito sa pamamagitan ng
URL-Equals
o mga page feed. Makakakuha ang URL ng trapiko o makakatanggap ka ng error na nagpapaliwanag kung bakit hindi ito nakakakuha ng trapiko.
Hakbang 2: Tiyaking mako-crawl ng Google AdsBot ang landing page
- Kopyahin ang URL at i-paste ito sa address bar ng isang web browser.
- Idagdag ang
/robots.txt
sa dulo ng domain name, pagkatapos ay pindutin ang Enter. (Halimbawa, kung ang iyong landing page ayhttp://www.example.com/folder1/folder2/
, tingnan kung anong mga robot ang pinahihintulutang mag-crawl sa domain sa pamamagitan ng pagbisita sa URL:http://www.example.com/robots.txt
.) - Hanapin ang linyang
User-agent: AdsBot-Google
.- Kung wala ito roon, makipagtulungan sa webmaster para idagdag ito.
- Kung blangko ang page, makipagtulungan sa webmaster para magdagdag ng
robots.txt
file sa domain. - Kung naroon ang
User-agent: AdsBot-Google
, tiyaking hindi ito sinusundan ng linyang nagsasabingDisallow: /
. Tiyakin ding hindi pinaghihigpitan ang AdsBot-Google ng isa pang linya sa file. Tungkol sa mgarobots.txt
file at mga crawler ng Google
- Kung ang landing page ay isang subdomain, tingnan kung may nakahiwalay na
robots.txt
file ang subdomain. Halimbawa,https://subdomain.domain.com/robots.txt
. Tiyaking pinahihintulutan rin ngrobots.txt
na ito angUser-agent: AdsBot-Google
. - Buksan ang source ng URL. Sa Chrome, magagawa mo ito sa pamamagitan ng pagbubukas sa
view-source:THE_URL
. Halimbawa, kung ang landing page mo ayhttp://www.example.com/folder1/folder2/
, maaari mong tingnan kung anong mga robot ang pinahihintulutang mag-crawl sa domain sa pamamagitan ng pag-navigate papunta saview-source:http://www.example.com/folder1/folder2/
.) - Hanapin ang string na “
AdsBot-Google
”- Kung wala ito roon, hindi ito ang source ng isyu.
- Kung ang string ay nasa loob ng tag tulad ng
<meta name="AdsBot-Google" content="noindex" />
, makipag-ugnayan sa iyong webmaster para alisin ito. Matuto pa tungkol sa mga meta tag na nauunawaan ng Google
Iba pang dahilan kung bakit hindi ma-crawl ang landing page
Kung pinahihintulutan ang Google AdsBot na i-crawl ang landing page ( Nasa robots.txt
file na ng site ang User-agent: AdsBot-Google
), maaaring may iba pang dahilan kung bakit hindi ma-crawl ang page:
- Hindi naglo-load ang landing page. Kung bubuksan mo ang page sa isang web browser at makakita ka ng error (halimbawa, 404 Not Found, Site not reachable, Your session has expired), makipag-ugnayan sa webmaster ng site para tiyaking naglo-load ang landing page sa anumang lokasyon, environment (mobile at desktop), o browser.
- Nangangailangan ng pag-sign in ang landing page. Dapat naa-access ng publiko ang lahat ng landing page ng ad. Gumamit ng isa pang landing page o makipagtulungan sa webmaster para alisin ang kinakailangang pag-sign in sa page.
- Masyadong marami ang pagpapasa o pag-redirect ng landing page. Mas kaunti dapat sa 10 pag-redirect ang mga pag-redirect ng landing page. Makipagtulungan sa webmaster para bawasan ang bilang ng mga pag-redirect. Matuto pa tungkol sa pagpapasa ng web