robots.txt レポート

Google が robots.txt ファイルを処理できるかどうかを確認する

robots.txt レポートには、サイトの上位 20 個のホストに対して Google が検出した robots.txt ファイル、前回のクロール日、発生した警告やエラーが表示されます。また、急いでいる場合には、レポートから robots.txt ファイルの再クロールをリクエストすることもできます。

robots.txt ファイルは、検索エンジンによってサイトがクロールされないようにするために使用します。検索結果にコンテンツが表示されないようにするには noindex を使用します

このレポートは、ドメインレベルのプロパティでのみご利用いただけます。つまり、対象となるのは次のいずれかです。

robots.txt レポートを開く

 

robots.txt ファイルとクロール ステータスを確認する

ドメイン プロパティの場合は、レポートにそのプロパティの上位 20 個のホストに関する robots.txt ファイルが含まれます。

Search Console がチェックした各 robots.txt ファイルについて、次の情報を確認できます。

  • ファイルパス - Google が robots.txt ファイルの有無を確認した完全な URL。URL は過去 30 日間のいずれかのタイミングで、取得済みステータスまたは未取得ステータスであった場合にのみ、レポートに表示されます。robots.txt ファイルの場所をご覧ください。
  • 取得ステータス - このファイルの最新の取得リクエストのステータス。具体的な表示内容は次のとおりです。
    • 未取得 - 見つかりませんでした(404): このファイルをリクエストしたときに 404 エラー(ファイルが存在しない)が発生しました。リストにある URL に robots.txt ファイルを配置しているにもかかわらずこのエラーが表示される場合は、URL を検査して、可用性に関する問題がないかどうかを確認してください。「見つかりませんでした(404)」というステータスが 30 日間続くと、そのファイルはレポートに表示されなくなります(ただし、引き続きバックグラウンドで確認は行われます)。robots.txt ファイルが存在しなくても問題ありません。その場合、Google はサイトのすべての URL をクロールします。詳細については robots.txt エラー発生時の Google の動作をご覧ください。
    • 未取得 - その他の理由: このファイルをリクエストしたときに、他の問題が発生しました。インデックス登録に関する問題のリストをご覧ください。
    • 取得済み: 前回のクロールの試行で、robots.txt ファイルが正常に返されました。ファイルの解析中に見つかった問題は、[問題] 列に表示されます。Google は問題がある行を無視し、解析可能な行を使用します。
  • 確認日時 - Google が前回この URL のクロールを試行した日時(現地時間)。
  • サイズ - 取得したファイルのサイズ(バイト数)。前回取得できなかった場合は空になります。
  • 問題 - 表には、前回取得時にファイル コンテンツの解析で発生した問題の数が表示されます。エラーの場合、ルールは適用されません。警告の場合は適用されます。robots.txt エラー発生時の Google の動作をご確認ください。解析に関する問題を解消するには、robots.txt 検証ツールを使用します。

前回取得されたバージョンを確認する

レポートのファイルリストで robots.txt ファイルをクリックすると、前回取得されたバージョンを確認できます。robots.txt ファイルにエラーや警告が発生している場合は、表示されたファイル コンテンツの該当部分がハイライト表示されます。矢印キーを使用してエラーと警告を切り替えられます。

これまでに取得されたバージョンを確認する

特定の robots.txt ファイルに関して過去 30 日間の取得リクエストを確認するには、レポートのファイルリストで対象のファイルをクリック後、[バージョン] をクリックします。特定のバージョンのファイル コンテンツを表示するには、該当のバージョンをクリックします。取得したファイルまたは取得結果が以前のファイル取得リクエストと異なる場合のみ、リクエストが履歴に追加されます。

再クロールをリクエストする

エラーを修正した場合、または重要な変更を加えた場合に、robots.txt ファイルの再クロールをリクエストできます。

再クロールをリクエストするタイミング

Google では robots.txt ファイルの再クロールを頻繁に実施しているため、通常は再クロールをリクエストする必要はありません。ただし、次のような場合にはリクエストできます。

  • robots.txt ルールを変更して一部の重要な URL のブロックを解除し、それをすぐに Google に通知する必要がある場合(リクエストしてもブロックを解除した URL がすぐに再クロールされるとは限りません)。
  • 取得エラーまたはその他の重大なエラーを修正した場合。

再クロールをリクエストする方法

再クロールをリクエストするには、robots ファイルのリストでファイルの横にあるその他アイコン を選択し、[再クロールをリクエスト] をクリックします。

ウェブサイト ホスティング サービス上のウェブサイト

ウェブサイトがウェブサイト ホスティング サービスでホストされている場合には、robots.txt ファイルの編集が難しいことがあります。そのような場合は、サイトホストのドキュメントで、特定のページを Google がクロールまたはインデックス登録できないようにブロックする方法をご確認ください

(ほとんどのユーザーの関心事は、ファイルが Google にクロールされないようにすることではなく、Google 検索に表示されないようにすることです。Google 検索に表示されないことが目的の場合は、検索エンジンからページをブロックする方法について、ご利用のホスティング サービスの情報をご確認ください)。

robots.txt ファイルの場所

用語:

  • プロトコル(スキームとも呼ばれます)は HTTP または HTTPS です。
  • ホストは、URL 内のプロトコル(http:// または https://)からパスまでの部分すべてを指します。つまり、「m.de.example.com」の場合は「m.de.example.com」、「de.example.com」、「example.com」という 3 種類のホストが存在し得るということになり、それぞれで独自の robots.txt ファイルを指定できます。
  • オリジンはプロトコルとホストを合わせたものです。たとえば、「https://example.com/」または「https://m.example.co.es/」となります。

RFC 9309 に従い、robots.txt ファイルはサイトのプロトコルとホストの各組み合わせのルートに配置する必要があります。

ドメイン プロパティの場合:

  1. Search Console は、クロール頻度順に上位 20 個のホストを選びます。各ドメインについて、レポートには最大 2 つのオリジンが表示されます。つまり、表には最大 40 行が表示されます。いずれかのホストの robots.txt の URL が表示されていない場合は、表示されていないサブドメインのドメイン プロパティを作成してください。
  2. Search Console は、ホストごとに次の 2 つの URL を確認します。
    • http://<host>/robots.txt
    • https://<host>/robots.txt
  3. リクエストされた URL の robots.txt ファイルのステータスが、30 日間「見つかりませんでした」の場合、このレポートにその URL は表示されなくなります。ただし、バックグラウンドで URL の確認は引き続き行われます。それ以外の場合は、レポートに確認された URL が表示されます。

ホストレベルの URL プレフィックス プロパティの場合(https://example.com/ など)、Search Console はそのプロパティの 1 つのオリジンのみを確認します。つまり、プロパティが「https://example.com」の場合、「https://example.com/robots.txt」のみを確認し、「http://example.com/robots.txt」や「https://m.example.com/robots.txt」は確認しません。

一般的なタスク

robots.txt ファイルを確認する

このレポートにリストされた robots.txt ファイルを開くには、robots.txt ファイルのリストで対象のファイルをクリックします。ブラウザでファイルを開くには、[公開中の robots.txt を開く] をクリックします。

ウェブ上の robots.txt ファイルはすべて、ブラウザで開けます。アクセスする URL については以下をご覧ください。

robots.txt ファイルの場所

robots.txt ファイルはプロトコルとドメインのルートにあります。URL を確認するには、ファイルの URL のホスト(およびオプションのポート)の後の部分をすべて削除して、「/robots.txt」を追加します。robots.txt ファイルが存在する場合は、ブラウザでアクセスできます。robots.txt ファイルはサブドメインまたは親ドメインに継承されません。また、1 つのページに適用されるのは、1 つの robots.txt ファイルのみです。たとえば次のような例が考えられます。

ファイルの URL ファイルに適用できる robots.txt の URL
http://example.com/home http://example.com/robots.txt
https://m.de.example.com/some/page/here/mypage https://m.de.example.com/robots.txt
https://example.com?pageid=234#myanchor https://example.com/robots.txt
https://images.example.com/flowers/daffodil.png https://images.example.com/robots.txt

ページや画像に適用される robots.txt ファイルを確認する

ページや画像に適用される robots.txt ファイルの URL を確認するには、次の操作を実行します。

  1. ページまたは画像の正確な URL を確認します。画像の場合は、Google Chrome ブラウザで右クリックし、[画像 URL をコピー] を選択します。
  2. URL のトップレベル ドメイン(.com、.org、.co.il など)の後の部分を削除して、末尾に「/robots.txt」を追加します。たとえば、「https://images.example.com/flowers/daffodil.png」の robots.txt ファイルは「https://images.example.com/robots.txt」となります。
  3. ブラウザで URL を開き、その URL が存在することを確認します。ブラウザでファイルを開けない場合、ファイルが存在していません。

Google が robots.txt でブロックされているかどうかをテストする

  • 特定の URL が robots.txt ファイルによってブロックされているかどうかをテストする場合は、URL 検査ツールを使用します。
  • デベロッパーの方は、Google 検索でも使用されている、Google のオープンソースの robots.txt ライブラリをご確認のうえご利用ください。このツールを使用すると、robots.txt ファイルをパソコン上でローカルにテストできます。

詳細情報

この情報は役に立ちましたか?

改善できる点がありましたらお聞かせください。

さらにサポートが必要な場合

次の手順をお試しください。

検索
検索をクリア
検索を終了
Google アプリ
メインメニュー
16074528817758388398
true
ヘルプセンターを検索
false
true
true
true
true
true
83844
false
false
false
false