อัปเดตไฟล์ robots.txt เพื่อให้ User Agent "Googlebot" ทำการ Crawl เว็บไซต์ด้วยชิ้นงาน 3 มิติ
Google ทำการ Crawl เว็บไซต์และรวบรวมข้อมูลเกี่ยวกับชิ้นงาน 3 มิติไม่ได้ โปรดตรวจสอบว่าไฟล์ robots.txt อนุญาตให้ User Agent "Googlebot" ทำการ Crawl เว็บไซต์เพื่อให้ Google เข้าถึงเนื้อหาได้
โดยการเพิ่มบรรทัดต่อไปนี้ลงในไฟล์ robots.txt
User-agent: Googlebot
Disallow:
ดูข้อมูลเพิ่มเติมเกี่ยวกับโปรโตคอลการยกเว้นสำหรับโรบ็อต
เมื่อคุณอัปโหลดและทดสอบไฟล์ robots.txt แล้ว Crawler ของ Google จะค้นหาและเริ่มใช้ไฟล์ robots.txt ของคุณโดยอัตโนมัติ คุณไม่ต้องดำเนินการใดๆ หากคุณอัปเดตไฟล์ robots.txt และต้องการรีเฟรชสำเนาที่แคชไว้ของ Google โดยเร็วที่สุด โปรดดูวิธีส่งไฟล์ robots.txt ที่อัปเดตแล้ว
Google อาจใช้ข้อมูลที่ได้รับจาก User Agent เหล่านี้หรือ User Agent อื่นๆ เพื่อปรับปรุงระบบ Google Ads