Google tidak dapat meng-crawl situs Anda dan mengumpulkan informasi terkait aset 3D. Untuk mengizinkan Google mengakses konten Anda, pastikan file robots.txt mengizinkan agen pengguna "Googlebot" meng-crawl situs Anda.
Anda dapat melakukannya dengan menambahkan baris berikut ke file robots.txt Anda:
User-agent: Googlebot
Disallow:
Pelajari lebih lanjut Protokol Pengecualian Robot
Setelah Anda mengupload dan menguji file robots.txt, crawler Google akan otomatis menemukan dan mulai menggunakan file robots.txt tersebut. Anda tidak perlu melakukan apa pun. Jika Anda sudah mengupdate file robots.txt dan harus me-refresh salinan yang di-cache Google sesegera mungkin, pelajari cara mengirimkan file robots.txt yang sudah diupdate.
Google dapat menggunakan informasi yang diperoleh dari salah satu agen pengguna di atas atau agen pengguna lainnya untuk meningkatkan kualitas sistem Google Ads kami.