วิธีแก้ไข: ข้อผิดพลาดของ robots.txt

อัปเดตไฟล์ robots.txt เพื่อให้ User Agent "Googlebot" ทำการ Crawl เว็บไซต์ด้วยชิ้นงาน 3 มิติ

Google ทำการ Crawl เว็บไซต์และรวบรวมข้อมูลเกี่ยวกับชิ้นงาน 3 มิติไม่ได้ โปรดตรวจสอบว่าไฟล์ robots.txt อนุญาตให้ User Agent "Googlebot" ทำการ Crawl เว็บไซต์เพื่อให้ Google เข้าถึงเนื้อหาได้

โดยการเพิ่มบรรทัดต่อไปนี้ลงในไฟล์ robots.txt

User-agent: Googlebot

Disallow:

ดูข้อมูลเพิ่มเติมเกี่ยวกับโปรโตคอลการยกเว้นสำหรับโรบ็อต

เมื่อคุณอัปโหลดและทดสอบไฟล์ robots.txt แล้ว Crawler ของ Google จะค้นหาและเริ่มใช้ไฟล์ robots.txt ของคุณโดยอัตโนมัติ คุณไม่ต้องดำเนินการใดๆ หากคุณอัปเดตไฟล์ robots.txt และต้องการรีเฟรชสำเนาที่แคชไว้ของ Google โดยเร็วที่สุด โปรดดูวิธีส่งไฟล์ robots.txt ที่อัปเดตแล้ว

Google อาจใช้ข้อมูลที่ได้รับจาก User Agent เหล่านี้หรือ User Agent อื่นๆ เพื่อปรับปรุงระบบ Google Ads

ข้อมูลนี้มีประโยชน์ไหม

เราจะปรับปรุงได้อย่างไร

หากต้องการความช่วยเหลือเพิ่มเติม

ลองทำตามขั้นตอนต่อไปนี้

true
ค้นหา
ล้างการค้นหา
ปิดการค้นหา
แอป Google
เมนูหลัก