Pengelolaan inventaris

Memastikan file ads.txt dapat di-crawl

Setelah file ads.txt disiapkan di domain Anda, crawler Google akan:

  • Mencoba meng-crawl file.
  • Menguraikan konten file untuk menentukan ID penjual yang diizinkan untuk memonetisasi inventaris Anda.
Catatan: Mungkin perlu waktu beberapa hari agar perubahan ads.txt ditampilkan di AdSense. Jika situs Anda tidak membuat banyak permintaan iklan, prosesnya dapat memakan waktu hingga satu bulan.

Untuk memastikan file ads.txt dapat di-crawl, sebaiknya lakukan langkah-langkah pemecahan masalah berikut.

Konfirmasikan bahwa file tersebut selalu ada

Jika file ads.txt yang sebelumnya ada menjadi tidak ada saat crawling ulang berikutnya, entri yang sebelumnya ada akan:

  • Dihapus jika responsnya adalah error hard 404 (halaman yang sebenarnya tidak ada; status HTTP 404).
  • Disimpan hingga 5 hari jika responsnya adalah error soft 404 (halaman yang ditampilkan untuk URL yang sebenarnya tidak ada; status HTTP 200) atau error server 500.

Konfirmasikan bahwa file dapat dijangkau dari root domain

Pengalihan dari domain.com/ads.txt ke www.domain.com/ads.txt sering terjadi. Crawling ads.txt akan dimulai di root domain, dan root domain harus ditampilkan dari, atau dialihkan ke, file ads.txt tersebut.

File ads.txt di www.domain.com/ads.txt hanya akan di-crawl jika domain.com/ads.txt dialihkan ke file ads.txt.

Pastikan crawling tidak dilarang oleh robots.txt

Crawler mungkin akan mengabaikan file ads.txt untuk domain jika file robots.txt di domain tidak mengizinkan salah satu hal berikut:

  • Crawling jalur URL tempat dipostingnya file ads.txt.
  • Agen Pengguna crawler.
Contoh: Crawling dilarang di jalur file ads.txt

Untuk example1.com:

  1. File ads.txt diposting di example1.com/ads.txt.
  2. Baris berikut ini termasuk dalam example1.com/robots.txt:
    User-agent: *
    Disallow: /ads
  3. File ads.txt akan diabaikan oleh crawler yang mengikuti standar robots.txt.
  4. Agar file dapat di-crawl, Anda dapat mengubah file robots.txt sebagai berikut (Anda juga dapat menggunakan cara lain):
    • Opsi 1: Ubah jalur yang dilarang.
      User-agent: *
      Disallow: /ads/
    • Opsi 2: Izinkan ads.txt secara eksplisit; tergantung pada dukungan crawler untuk perintah robots.txt Allow.
      User-agent: *
      Allow: /ads.txt
      Disallow: /ads
Contoh: Crawling dilarang untuk Agen Pengguna

Untuk example2.com:

  1. File ads.txt diposting di example2.com/ads.txt.
  2. Baris berikut ini termasuk dalam example2.com/robots.txt:
    User-agent: Googlebot
    Disallow: /
  3. Crawler Google akan mengabaikan file ads.txt.

Pastikan file menampilkan kode status HTTP 200 OK

Meskipun permintaan untuk file ads.txt akan menampilkan konten file di isi respons, jika kode status di header respons menunjukkan bahwa file tidak ditemukan (contoh, kode status 404):

  • Respons akan diabaikan.
  • File tersebut akan dianggap tidak ada.

Pastikan file memiliki kode status HTTP 200 OK.

Pastikan tidak ada kesalahan format atau karakter yang tidak valid dalam file

Kesalahan format, seperti spasi tambahan yang tidak valid, mungkin sulit dideteksi tetapi dapat membuat file ads.txt sulit diuraikan oleh crawler, dan karenanya dapat menyebabkan file diabaikan. Jangan menyalin dan menempelkan entri ads.txt dari editor rich text; sebaiknya gunakan editor teks biasa.

Buat file ads.txt dapat dijangkau melalui HTTP dan HTTPS

Crawler Google mencoba meng-crawl semua file ads.txt pada HTTP dan HTTPS. Namun, respons 404 (atau 40X) menyebabkan entri yang di-crawl sebelumnya dihapus, meskipun file ads.txt di-crawl melalui HTTP. Oleh karena itu, jika crawling melalui HTTPS menampilkan 404 (atau 40X):

  • Entri yang di-crawl sebelumnya akan dihapus.

Pastikan ads.txt dapat diakses melalui HTTP dan HTTPS.

Apakah ini membantu?
Bagaimana cara meningkatkannya?