robots.txt로 인해 차단된 페이지 차단 해제

robots.txt 규칙으로 인해 페이지가 Google에서 차단되면 Google 검색결과에 표시되지 않을 수 있으며 드물게 결과에 설명이 포함되지 않을 가능성이 있습니다.

1. robots.txt로 인해 페이지가 차단되었는지 확인하기

Search Console에서 사이트 소유권을 확인한 경우 다음 단계를 따르세요.

  1. URL 검사 도구를 엽니다.
  2. Google 검색결과에 표시된 페이지의 URL을 검사합니다. 이 URL이 포함된 Search Console 속성을 선택했는지 확인합니다.
  3. 검사 결과에서 페이지 색인 생성 섹션의 상태를 확인합니다. robots.txt로 인해 차단됨이라고 표시되면 문제가 있는 것입니다. 다음 섹션으로 이동하여 문제를 해결하세요.

Search Console에서 사이트를 확인하지 않은 경우 다음 단계를 따르세요.

  1. robots.txt 검사기를 검색합니다.
  2. 검사기에서 설명이 누락된 페이지의 URL을 입력합니다. Google 검색결과에 표시되는 페이지의 URL을 사용합니다.
  3. 검사기에서 페이지가 Google에서 차단되었다고 하면 문제를 확인한 것입니다. 다음 섹션으로 이동하여 문제를 해결하세요.

2. 규칙 수정하기

  1. robots.txt 검사기를 사용하여 페이지를 차단하는 규칙과 robots.txt 파일의 위치를 확인합니다.
  2. 다음과 같이 규칙을 수정하거나 삭제합니다.
    • 웹사이트 호스팅 서비스를 사용하는 경우(예: 사이트에서 Wix, Joomla 또는 Drupal을 사용하는 경우) 로봇 파일을 업데이트하는 방법을 정확하게 안내할 수 없습니다. 호스팅 서비스마다 robots.txt를 관리하는 자체 방식이 있기 때문입니다. 호스팅 업체의 설명서를 검색하여 페이지 또는 사이트에서 Google을 차단 해제하는 방법을 알아보세요. 'robots.txt 제공업체 이름' 또는 '제공업체 이름 페이지 Google 차단 해제' 등으로 검색해서 설명서를 찾아볼 수 있습니다. 검색어 예시: robots.txt Wix
    • robots.txt 파일을 직접 수정할 수 있는 경우 규칙을 삭제하거나 robots.txt 구문에 따라 업데이트합니다.

도움이 되었나요?

어떻게 하면 개선할 수 있을까요?

도움이 더 필요하신가요?

다음 단계를 시도해 보세요.

검색
검색어 지우기
검색 닫기
기본 메뉴
18107500221566694645
true
도움말 센터 검색
true
true
true
true
true
83844
false
false