Krok 1. Znajdowanie adresu URL, którego nie można zindeksować
Strony, których nie można zindeksować, wpływają na Twoje dynamiczne reklamy w wyszukiwarce na trzy sposoby:
- Jeśli jako typ kierowania wybierzesz
URL-Equals
, a Twojego adresu URL nie można zindeksować, dynamiczny cel reklamy będzie miał stan „Odrzucony. Nie można zindeksować strony”. - Jeśli użyjesz plików z adresami stron docelowych, a Twojego adresu URL nie można zindeksować, w wierszu dla tego adresu w bibliotekach udostępnionych wyświetli się status „Odrzucony. Nie można zindeksować strony”.
- Jeśli użyjesz innego mechanizmu kierowania, a Twojego adresu URL nie można zindeksować, nie wyświetli się żaden komunikat o błędzie, ponieważ Google Ads nie otrzyma informacji na ten temat. Jeśli adres URL, na który chcesz kierować reklamy, nie generuje ruchu, spróbuj rozwiązać ten problem poprzez kierowanie reklam za pomocą
URL-Equals
lub plików z adresami stron docelowych. Adres URL zacznie generować ruch lub wyświetli się błąd z informacją, dlaczego tak się nie dzieje.
Krok 2. Sprawdzanie, czy robot Google AdsBot może zindeksować stronę docelową
- Skopiuj adres URL i wklej go do paska adresu przeglądarki.
- Dodaj ciąg
/robots.txt
na końcu nazwy domeny i naciśnij Enter. Jeśli na przykład Twoja strona docelowa tohttp://www.example.com/folder1/folder2/
, odwiedź stronęhttp://www.example.com/robots.txt
, by sprawdzić, jakie roboty mogą indeksować domenę. - Poszukaj wiersza
User-agent: AdsBot-Google
.- Jeśli go nie ma, skontaktuj się z webmasterem, by go dodać.
- Jeśli strona jest pusta, skontaktuj się z webmasterem, by dodać plik
robots.txt
do domeny. - Jeśli znajdziesz wiersz
User-agent: AdsBot-Google
, sprawdź, czy nie ma po nim wiersza z tekstemDisallow: /
. Upewnij się też, że żaden inny wiersz w pliku nie ogranicza działania robota AdsBot-Google. Informacje o plikachrobots.txt
i robotach Google
- Jeśli strona docelowa jest subdomeną, sprawdź, czy ta subdomena ma oddzielny plik
robots.txt
, na przykładhttps://subdomain.domain.com/robots.txt
. Upewnij się, że ten plikrobots.txt
zawiera też działający wierszUser-agent: AdsBot-Google
. - Otwórz kod źródłowy adresu URL. Aby to zrobić w Chrome, otwórz plik
view-source:THE_URL
. Jeśli na przykład Twoja strona docelowa tohttp://www.example.com/folder1/folder2/
, odwiedź stronęhttp://www.example.com/folder1/folder2/
, by sprawdzić, jakie roboty mogą indeksować domenę. - Poszukaj tekstu „
AdsBot-Google
”.- Jeśli go nie ma, nie to jest źródłem problemu.
- Jeśli tekst znajduje się w tagu takim jak
<meta name="AdsBot-Google" content="noindex" />
, skontaktuj się z webmasterem, by usunąć ten tag. Więcej informacji o metatagach, które Google potrafi zinterpretować
Inne powody, dlaczego nie można zindeksować strony docelowej
Jeśli robot Google AdsBot może zindeksować stronę docelową (wiersz User-agent: AdsBot-Google
znajduje się już w pliku robots.txt
strony), strona może nie być indeksowana z innego powodu:
- Strona docelowa się nie wczytuje. Jeśli po otwarciu strony w przeglądarce zobaczysz błąd (na przykład 404 – nie znaleziono strony, Strona jest nieosiągalna, Sesja wygasła), skontaktuj się z webmasterem witryny, by sprawdzić, czy strona docelowa wczytuje się we wszystkich lokalizacjach, środowiskach (na urządzeniach mobilnych i komputerach) oraz przeglądarkach.
- Strona docelowa wymaga logowania. Wszystkie strony docelowe reklam muszą być publicznie dostępne. Użyj innej strony docelowej lub skontaktuj się z webmasterem, by usunąć z niej wymóg logowania.
- Strona docelowa ma zbyt wiele przekierowań. Strony docelowe nie mogą mieć więcej niż 10 przekierowań. Skontaktuj się z webmasterem, by zmniejszyć liczbę przekierowań. Więcej informacji o przekierowaniach na witrynę