Крок 1. Виявіть недоступну для сканування URL-адресу
Нижче описано, як недоступні для сканування сторінки можуть вплинути на динамічні пошукові оголошення.
- Якщо ви вибрали тип націлювання
URL-Equals
і ваша URL-адреса недоступна для сканування, то побачите статус цілі динамічного оголошення "Відхилено: сторінку не можна просканувати". - Якщо ви використовуєте фіди сторінки й ваш фід недоступний для сканування, у рядку для URL-адреси в спільній бібліотеці ви побачите статус "Відхилено: сторінку не можна просканувати".
- Якщо ви використовуєте інший механізм націлювання та URL-адреса недоступна для сканування, система Google Ads не знатиме про це, і повідомлення про помилку не відображатиметься. Якщо URL-адреса, на яку ви намагаєтеся націлюватись, не отримує трафік, вирішити проблему можна, спершу націлившись на неї за допомогою типу
URL-Equals
або фідів сторінок. URL-адреса отримає трафік, або ви побачите помилку з поясненням, чому це не відбувається.
Крок 2. Переконайтеся, що робот Google AdsBot може просканувати цільову сторінку
- Скопіюйте URL-адресу та вставте її в адресний рядок веб-переглядача.
- Додайте
/robots.txt
у кінець доменного імені та натисніть клавішу Enter. (Наприклад, якщо ваша цільова сторінка –http://www.example.com/folder1/folder2/
, перевірте, яким роботам дозволено сканувати домен, перейшовши за посиланнямhttp://www.example.com/robots.txt
.) - Знайдіть рядок
User-agent: AdsBot-Google
.- Якщо його немає, зверніться до веб-майстра, щоб додати його.
- Якщо сторінка пуста, зверніться до веб-майстра, щоб додати файл
robots.txt
у домен. - Якщо ви бачите
User-agent: AdsBot-Google
, переконайтеся, що після нього немає рядка з текстомDisallow: /
. Крім того, переконайтеся, що доступ для робота AdsBot-Google не заборонено в іншому рядку файлу. Докладніше про файлиrobots.txt
і веб-сканери Google
- Якщо цільова сторінка є субдоменом, перевірте, чи має субдомен окремий файл
robots.txt
(наприклад,https://subdomain.domain.com/robots.txt
). Переконайтеся, що в цьому файліrobots.txt
також дозволено доступ для роботаUser-agent: AdsBot-Google
. - Відкрийте вихідний код URL-адреси. У веб-переглядачі Chrome це можна зробити, якщо в адресному рядку ввести
view-source:THE_URL
. Наприклад, якщо ваша цільова сторінка –http://www.example.com/folder1/folder2/
, можна перевірити, яким роботам дозволено сканувати домен, перейшовши за посиланнямview-source:http://www.example.com/folder1/folder2/
. - Знайдіть рядок "
AdsBot-Google
".- Якщо його немає, проблема не в коді.
- Якщо рядок у тегу, як-от
<meta name="AdsBot-Google" content="noindex" />
, зверніться до веб-майстра, щоб його вилучити. Докладніше про метатеги, які розуміє Google
Інші причини недоступності цільової сторінки для сканування
Якщо робот Google AdsBot має дозвіл на сканування цільової сторінки (фрагмент User-agent: AdsBot-Google
уже включено у файл robots.txt
сайту), вона може бути недоступною з наведених нижче причин.
- Цільова сторінка не завантажується. Якщо, відкриваючи сторінку у веб-переглядачі, ви бачите помилку (наприклад, "404 не знайдено", "Сайт недоступний", "Ваш сеанс завершено"), зверніться до веб-майстра, щоб той переконався, що цільова сторінка завантажується в будь-якому місцеположенні, середовищі (на мобільних пристроях і комп’ютерах) або веб-переглядачі.
- На цільовій сторінці потрібно виконати вхід. Усі цільові сторінки мають бути загальнодоступними. Використайте іншу цільову сторінку або зверніться до веб-майстра, щоб вилучити обов’язковий вхід.
- На цільовій сторінці забагато переспрямувань або переадресацій. На цільових сторінках має бути менше ніж 10 переспрямувань. Зверніться до веб-майстра, щоб зменшити їх кількість. Докладніше про переадресацію домену