Вирішення проблем із недоступними для сканування цільовими сторінками в кампанії з групою динамічних оголошень

Крок 1. Виявіть недоступну для сканування URL-адресу

Нижче описано, як недоступні для сканування сторінки можуть вплинути на динамічні пошукові оголошення.

  • Якщо ви вибрали тип націлювання URL-Equals і ваша URL-адреса недоступна для сканування, то побачите статус цілі динамічного оголошення "Відхилено: сторінку не можна просканувати". 
  • Якщо ви використовуєте фіди сторінки й ваш фід недоступний для сканування, у рядку для URL-адреси в спільній бібліотеці ви побачите статус "Відхилено: сторінку не можна просканувати".
  • Якщо ви використовуєте інший механізм націлювання та URL-адреса недоступна для сканування, система Google Ads не знатиме про це, і повідомлення про помилку не відображатиметься. Якщо URL-адреса, на яку ви намагаєтеся націлюватись, не отримує трафік, вирішити проблему можна, спершу націлившись на неї за допомогою типу URL-Equals або фідів сторінок. URL-адреса отримає трафік, або ви побачите помилку з поясненням, чому це не відбувається.

Крок 2. Переконайтеся, що робот Google AdsBot може просканувати цільову сторінку

  1. Скопіюйте URL-адресу та вставте її в адресний рядок веб-переглядача.
  2. Додайте /robots.txt у кінець доменного імені та натисніть клавішу Enter. (Наприклад, якщо ваша цільова сторінка – http://www.example.com/folder1/folder2/, перевірте, яким роботам дозволено сканувати домен, перейшовши за посиланням http://www.example.com/robots.txt.)
  3. Знайдіть рядок User-agent: AdsBot-Google.
    • Якщо його немає, зверніться до веб-майстра, щоб додати його.
    • Якщо сторінка пуста, зверніться до веб-майстра, щоб додати файл robots.txt у домен.
    • Якщо ви бачите User-agent: AdsBot-Google, переконайтеся, що після нього немає рядка з текстом Disallow: /. Крім того, переконайтеся, що доступ для робота AdsBot-Google не заборонено в іншому рядку файлу. Докладніше про файли robots.txt і веб-сканери Google
  4. Якщо цільова сторінка є субдоменом, перевірте, чи має субдомен окремий файл robots.txt (наприклад, https://subdomain.domain.com/robots.txt). Переконайтеся, що в цьому файлі robots.txt також дозволено доступ для робота User-agent: AdsBot-Google.
  5. Відкрийте вихідний код URL-адреси. У веб-переглядачі Chrome це можна зробити, якщо в адресному рядку ввести view-source:THE_URL. Наприклад, якщо ваша цільова сторінка – http://www.example.com/folder1/folder2/, можна перевірити, яким роботам дозволено сканувати домен, перейшовши за посиланням view-source:http://www.example.com/folder1/folder2/.
  6. Знайдіть рядок "AdsBot-Google".

Інші причини недоступності цільової сторінки для сканування

Якщо робот Google AdsBot має дозвіл на сканування цільової сторінки (фрагмент User-agent: AdsBot-Google уже включено у файл robots.txt сайту), вона може бути недоступною з наведених нижче причин.

  • Цільова сторінка не завантажується. Якщо, відкриваючи сторінку у веб-переглядачі, ви бачите помилку (наприклад, "404 не знайдено", "Сайт недоступний", "Ваш сеанс завершено"), зверніться до веб-майстра, щоб той переконався, що цільова сторінка завантажується в будь-якому місцеположенні, середовищі (на мобільних пристроях і комп’ютерах) або веб-переглядачі.
  • На цільовій сторінці потрібно виконати вхід. Усі цільові сторінки мають бути загальнодоступними. Використайте іншу цільову сторінку або зверніться до веб-майстра, щоб вилучити обов’язковий вхід.
  • На цільовій сторінці забагато переспрямувань або переадресацій. На цільових сторінках має бути менше ніж 10 переспрямувань. Зверніться до веб-майстра, щоб зменшити їх кількість. Докладніше про переадресацію домену

 

Чи корисна ця інформація?

Як можна її покращити?
Пошук
Очистити пошук
Закрити пошук
Головне меню
15507490487446907284
true
Пошук у довідковому центрі
true
true
true
true
true
73067
false
false
false