เปลี่ยนอัตราการ Crawl ของ Googlebot

คำว่า อัตราการ Crawl  หมายถึงจำนวนคำขอต่อวินาทีที่ Googlebot ส่งไปยังเว็บไซต์เมื่อทำการ Crawl จากเว็บไซต์ เช่น 5 คำขอต่อวินาที

คุณเปลี่ยนแปลงความถี่ที่ Google ทำการ Crawl เว็บไซต์ของคุณไม่ได้ แต่หากต้องการให้ Google ทำการ Crawl จากเนื้อหาใหม่หรือเนื้อหาที่อัปเดตในเว็บไซต์ คุณอาจขอให้มีการ Crawl อีกครั้ง

การใช้งานที่เหมาะสม

Google มีอัลกอริทึมที่ซับซ้อนซึ่งกำหนดความเร็วในการ Crawl ที่เหมาะสมสำหรับเว็บไซต์ เป้าหมายของเราคือทำการ Crawl หน้าเว็บจากเว็บไซต์ของคุณให้มากที่สุดเท่าที่จะทำได้ในการเข้าชมแต่ละครั้ง โดยไม่ทำให้เกิดปัญหากับแบนด์วิดท์ของเซิร์ฟเวอร์ของคุณ

หาก Google ส่งคำขอต่อวินาทีไปยังเว็บไซต์มากเกินไปและทำให้เซิร์ฟเวอร์ทำงานช้าลง คุณอาจจำกัดความเร็วที่ Google ทำการ Crawl เว็บไซต์ของคุณ

คุณจำกัดอัตราการ Crawl สำหรับเว็บไซต์ระดับราก เช่น www.example.com และ http://subdomain.example.com ได้ อัตราการ Crawl ที่คุณกำหนดคืออัตราสูงสุดที่ Googlebot ควรทำการ Crawl ได้ โปรดทราบว่าเรารับประกันไม่ได้ว่า Googlebot จะทำการ Crawl ถึงอัตราสูงสุดนี้

เราไม่แนะนำให้จำกัดอัตราการ Crawl เว้นแต่คุณกำลังประสบปัญหาเซิร์ฟเวอร์มีปริมาณงานมากเกินไปซึ่งทราบแน่ชัดว่าเกิดจากการที่ Googlebot เข้าใช้เซิร์ฟเวอร์ของคุณหนักเกินไป

คุณเปลี่ยนอัตราการ Crawl สำหรับเว็บไซต์ที่ไม่อยู่ในระดับรากไม่ได้ เช่น www.example.com/folder

จำกัดอัตราการ Crawl

  1. เปิดหน้าการตั้งค่าอัตราการ Crawl ของพร็อพเพอร์ตี้
    • หากอัตราการ Crawl มีคำอธิบายว่า "คำนวณแล้วว่าเหมาะสม" วิธีเดียวที่จะลดอัตราการ Crawl ได้คือการยื่นคำขอพิเศษ และคุณจะเพิ่มอัตราการ Crawl ไม่ได้
    • มิเช่นนั้น ให้เลือกตัวเลือกที่ต้องการ แล้วจำกัดอัตราการ Crawl ตามต้องการ อัตราการ Crawl ใหม่จะใช้ได้นาน 90 วัน

การจํากัดการ Crawl ฉุกเฉิน

หากระบบกำลังทำการ Crawl เว็บไซต์ของคุณเป็นจำนวนมากจนเว็บไซต์มีปัญหาด้านความพร้อมให้บริการ เราแนะนำให้ลองดูวิธีป้องกันเว็บไซต์ด้านล่างนี้

  1. วิเคราะห์หาโปรแกรมรวบรวมข้อมูลของ Google ที่กำลังรวบรวมข้อมูลจากเว็บไซต์ของคุณมากเกินไป ดูบันทึกเว็บไซต์หรือใช้รายงานสถิติการรวบรวมข้อมูล
  2. การบรรเทาปัญหาในทันที
    • หากต้องการวิธีแก้ไขง่ายๆ ให้ใช้ robots.txt เพื่อบล็อกการ Crawl สำหรับ Agent ที่ทำงานมากเกินไป (googlebot, adsbot ฯลฯ) อย่างไรก็ตาม อาจใช้เวลาถึง 1 วันกว่าจะเห็นผล แต่ไม่ควรบล็อกนานเกินไปเนื่องจากอาจส่งผลเสียต่อการ Crawl ในระยะยาว
    • หากคุณตรวจหาและตอบสนองต่อภาระงานที่เพิ่มขึ้นได้แบบไดนามิก ให้แสดง HTTP 503/429 เมื่อการแสดงผลใกล้ถึงขีดจำกัด แต่อย่าแสดงผล 503 หรือ 429 นานเกินกว่า 2 หรือ 3 วัน มิฉะนั้นระบบอาจส่งสัญญาณให้ Google ทำการ Crawl จากเว็บไซต์ของคุณถี่น้อยลงในระยะยาว
  3. เปลี่ยนอัตราการ Crawl โดยใช้หน้าการตั้งค่าอัตราการ Crawl หากมีตัวเลือกนี้
  4. 2 หรือ 3 วันหลังจากนั้น เมื่ออัตราการ Crawl ของ Google ปรับเปลี่ยนแล้ว คุณจะนำ robots.txt ออกหรือหยุดแสดงผลรหัสข้อผิดพลาด 503 หรือ 429 ได้
  5. หาก AdsBot รวบรวมข้อมูลมากเกินไป ก็น่าจะเป็นเพราะคุณสร้างเป้าหมายจำนวนมากเกินไปสำหรับโฆษณาบนเครือข่ายการค้นหาแบบไดนามิกในเว็บไซต์โดยใช้ URL_Equals หรือฟีดหน้าเว็บ หากเซิร์ฟเวอร์มีความสามารถไม่พอในการรับมือการรวบรวมข้อมูลเหล่านี้ คุณควรจำกัดเป้าหมายโฆษณา เพิ่ม URL เป็นกลุ่มเล็กๆ หรือเพิ่มความสามารถในการแสดงหน้าเว็บ โปรดทราบว่า AdsBot จะรวบรวมข้อมูลหน้าเว็บทุกๆ 2 สัปดาห์ คุณจึงต้องแก้ไขปัญหา มิเช่นนั้นปัญหาจะเกิดขึ้นอีก
  6. โปรดทราบว่าหากได้จำกัดอัตราการ Crawl โดยใช้หน้าการตั้งค่าการ Crawl อัตราการ Crawl จะกลับไปใช้การปรับอัตโนมัติหลังจากผ่านไป 90 วัน
ข้อมูลนี้มีประโยชน์ไหม
เราจะปรับปรุงได้อย่างไร

หากต้องการความช่วยเหลือเพิ่มเติม

ลองทำตามขั้นตอนต่อไปนี้

ค้นหา
ล้างการค้นหา
ปิดการค้นหา
แอป Google
เมนูหลัก
ค้นหาศูนย์ช่วยเหลือ
false
false
true
83844
false
false