ขั้นตอนที่ 1: หา URL ที่ Crawl ไม่ได้
หน้าเว็บที่ไม่สามารถทำการ Crawl ได้อาจส่งผลต่อโฆษณา Search แบบไดนามิกใน 3 ลักษณะดังนี้
- หากเลือก
URL เท่ากับเป็นประเภทการกำหนดเป้าหมายและระบบทำการ Crawl URL ไม่ได้ คุณจะเห็นสถานะ "ไม่อนุมัติ: ทำการ Crawl หน้าเว็บไม่ได้" ในเป้าหมายโฆษณาแบบไดนามิก - หากใช้ฟีดหน้าเว็บและระบบทำการ Crawl URL ไม่ได้ คุณจะเห็นสถานะ "ไม่อนุมัติ: ทำการ Crawl หน้าเว็บไม่ได้" ในแถวของ URL นั้นในคลังที่ใช้ร่วมกัน
- หากคุณใช้กลไกการกำหนดเป้าหมายอื่นและระบบไม่ได้ทำการ Crawl URL หรือทำการ Crawl ไม่ได้ Google Ads ก็จะไม่รู้จัก URL ดังกล่าว ทำให้ไม่มีการระบุข้อความแสดงข้อผิดพลาด หาก URL ที่จะกำหนดเป้าหมายไม่ได้รับการเข้าชม คุณแก้ปัญหาได้โดยกำหนดเป้าหมาย URL นั้นผ่าน
URL เท่ากับหรือฟีดหน้าเว็บก่อนเป็นอันดับแรก URL ก็จะได้รับการเข้าชมหรือคุณจะได้รับข้อผิดพลาดซึ่งอธิบายสาเหตุที่ไม่ได้รับการเข้าชม
ขั้นตอนที่ 2: ตรวจสอบว่า Google AdsBot Crawl ข้อมูลหน้า Landing Page ได้
- คัดลอก URL แล้ววางในแถบที่อยู่ของเว็บเบราว์เซอร์
- ใส่
/robots.txtไว้ท้ายชื่อโดเมนแล้วกด Enter ตัวอย่างเช่น หากหน้า Landing Page คือhttp://www.example.com/folder1/folder2/ให้ตรวจสอบว่าโรบ็อตใดได้รับอนุญาตให้ทำการ Crawl โดเมนบ้างโดยไปที่ URL นี้http://www.example.com/robots.txt - มองหาบรรทัด
User-agent: AdsBot-Google- หากไม่มี ให้ทำงานร่วมกับนักพัฒนาเว็บเพื่อเพิ่ม
- หากหน้าเว็บว่างเปล่า ให้ทำงานร่วมกับนักพัฒนาเว็บเพื่อเพิ่มไฟล์
robots.txtในโดเมน - หากมี
User-agent: AdsBot-Googleให้ตรวจสอบว่าไม่มีบรรทัดDisallow: /อยู่ข้างหลัง และตรวจสอบว่าบรรทัดอื่นในไฟล์ไม่ได้จํากัด AdsBot-Google ดูข้อมูลเพิ่มเติมเกี่ยวกับไฟล์robots.txtและ Crawler ของ Google
- หากหน้า Landing Page เป็นโดเมนย่อย ให้ตรวจสอบว่าโดเมนย่อยนั้นมีไฟล์
robots.txtแยกต่างหาก ตัวอย่างเช่นhttps://subdomain.domain.com/robots.txtตรวจสอบว่าrobots.txtนี้อนุญาตUser-agent: AdsBot-Googleด้วยเช่นกัน - เปิดแหล่งที่มาของ URL ซึ่งใน Chrome คุณจะทำได้โดยเปิด
view-source:THE_URLตัวอย่างเช่น หากหน้า Landing Page คือhttp://www.example.com/folder1/folder2/คุณดูโรบ็อตที่ได้รับอนุญาตให้ทำการ Crawl โดเมนได้โดยไปที่view-source:http://www.example.com/folder1/folder2/ - มองหาสตริง "
AdsBot-Google"- หากไม่มีแสดงว่าสตริงนี้ไม่ใช่สาเหตุของปัญหา
- หากสตริงอยู่ภายในแท็ก เช่น
<meta name="AdsBot-Google" content="noindex" />ให้ทำงานร่วมกับนักพัฒนาเว็บเพื่อนำสตริงออก ดูข้อมูลเพิ่มเติมเกี่ยวกับเมตาแท็กที่ Google เข้าใจ
- ทดสอบหน้า Landing Page ด้วยเครื่องมือจำลอง Crawler ใช้เครื่องมือตรวจสอบ URL ของ Google Search Console เพื่อดูว่า Google ทำการ Crawl หน้าเว็บของคุณอย่างไร วิธีนี้จะช่วยระบุว่าเข้าถึงหน้าเว็บได้หรือไม่และแสดงรหัสสถานะ 200 OK หรือไม่ ซึ่งจะตรวจสอบปัญหาการ Crawl ที่ทำให้ไม่ได้รับอนุมัติโดยอัตโนมัติ
สาเหตุอื่นๆ ที่ระบบทำการ Crawl หน้า Landing Page ไม่ได้
หาก Google AdsBot ได้รับอนุญาตให้ทำการ Crawl หน้า Landing Page (User-agent: AdsBot-Google มีอยู่ในไฟล์ robots.txt ของเว็บไซต์แล้ว) แสดงว่าอาจมีสาเหตุอื่นที่ส่งผลให้ทำการ Crawl หน้าเว็บไม่ได้
- หน้า Landing Page ไม่โหลดหรือแสดงข้อผิดพลาด หากคุณเปิดหน้าเว็บด้วยเว็บเบราว์เซอร์และพบข้อผิดพลาดของ HTTP (เช่น 404 Not Found, 403 Forbidden, 500 Internal Server Error หรือข้อผิดพลาด DNS) แสดงว่าเซิร์ฟเวอร์ของเว็บไซต์ไม่อนุญาตให้เข้าถึง แม้ว่าหน้าเว็บจะโหลดสำหรับคุณ แต่ก็อาจถูกบล็อกสำหรับ Crawler ของ Google ติดต่อนักพัฒนาเว็บของเว็บไซต์เพื่อให้แน่ใจว่า Google AdsBot เข้าถึงหน้า Landing Page ได้และแสดงรหัสสถานะ 200 OK โดยควรตรวจสอบบันทึกและกำหนดค่าของเซิร์ฟเวอร์เพื่อให้แน่ใจว่าไฟร์วอลล์หรือการตั้งค่าความปลอดภัยอื่นๆ (เช่น Cloudflare) ไม่ได้บล็อก Crawler ของ Google
- หน้า Landing Page กำหนดให้ลงชื่อเข้าใช้ หน้า Landing Page ทุกหน้าของโฆษณาต้องเข้าถึงได้แบบสาธารณะ ใช้หน้า Landing Page อื่นหรือทำงานร่วมกับนักพัฒนาเว็บเพื่อนำข้อกำหนดการลงชื่อเข้าใช้ออกจากหน้าเว็บ
- หน้า Landing Page มีการส่งต่อหรือเปลี่ยนเส้นทางมากเกินไป หน้า Landing Page ต้องมีการเปลี่ยนเส้นทางไม่เกิน 10 รายการ ทำงานร่วมกับนักพัฒนาเว็บเพื่อลดจำนวนการเปลี่ยนเส้นทาง