Как устранить ошибки сканирования целевых страниц в кампании с использованием динамических групп объявлений

Этап 1. Поиск несканируемого URL

Несканируемые страницы в динамических поисковых объявлениях можно определить тремя способами:

  • Если в качестве типа таргетинга выбрано URL-Equals и URL не сканируется, в статусе цели динамической рекламы будет указано "Отклонено: невозможно просканировать страницу". 
  • Если вы используете фиды страниц и URL фида не сканируется, в строке для этого URL будет указан статус "Отклонено: невозможно просканировать страницу".
  • Если вы используете любой другой механизм таргетинга и URL не сканируется, Google Ads не будет знать об этом. Следовательно, сообщение об ошибке не будет отображаться. Если целевая страница не привлекает трафик, можно сначала настроить таргетинг с использованием URL-Equals или фидов страниц. URL либо привлечет трафик, либо вы получите сообщение об ошибке и поймете ее причину.

Этап 2. Убедитесь, что роботу Google AdsBot разрешено сканировать целевую страницу

  1. Скопируйте и вставьте URL в адресную строку браузера.
  2. Добавьте элемент /robots.txt в конец доменного имени и нажмите клавишу "Ввод". Например, если URL целевой страницы выглядит как http://www.example.com/folder1/folder2/, введите http://www.example.com/robots.txt. Так вы узнаете, каким роботам разрешено сканировать домен.
  3. Найдите строку User-agent: AdsBot-Google.
    • Если такой строки нет, попросите веб-мастера добавить ее.
    • Если страница пустая, попросите веб-мастера добавить в домен файл robots.txt.
    • Если строка User-agent: AdsBot-Google есть в файле, убедитесь, что после нее нет строки с элементом Disallow: /. Также проверьте, нет ли в файле какой-либо другой строки, которая запрещает роботу AdsBot-Google доступ к целевой странице. Подробнее о файлах robots.txt и поисковых роботах Google…
  4. Если целевая страница является субдоменом, проверьте, есть ли в субдомене собственный файл robots.txt. Путь к этому файлу может выглядеть так: https://subdomain.domain.com/robots.txt. Убедитесь, что этот файл robots.txt также не блокирует роботу User-agent: AdsBot-Google доступ к целевой странице.
  5. Откройте источник URL. Для этого в Chrome, например, откройте view-source:THE_URL. Чтобы проверить, каким роботам разрешено сканировать домен, для целевой страницы http://www.example.com/folder1/folder2/, введите view-source:http://www.example.com/folder1/folder2/.
  6. Найдите строку "AdsBot-Google".

Другие причины проблем со сканированием целевой страницы

Если Google AdsBot может сканировать целевую страницу (то есть строка User-agent: AdsBot-Google присутствует в файле robots.txt), ошибки со сканированием могут возникать и по другим причинам:

  • Целевая страница не загружается. Если вы пытаетесь открыть ее в браузере и видите сообщение об ошибке (например, "404 – страница не найдена", "Сайт недоступен", "Срок действия вашего сеанса истек" и т. д.), попросите веб-мастера сайта проверить, может ли целевая страница загружаться в любом браузере и на любой платформе (как на компьютерах, так и на мобильных устройствах).
  • Целевая страница требует входа в аккаунт. Все целевые страницы должны быть общедоступными. Укажите другую целевую страницу или попросите веб-мастера отключить на ней запрос на вход в аккаунт.
  • На целевой странице используется слишком много переадресаций. Их должно быть не больше 10. Попросите веб-мастера исправить эту проблему. Подробнее о переадресациях…

 

Эта информация оказалась полезной?

Как можно улучшить эту статью?
Поиск
Очистить поле поиска
Закрыть поиск
Главное меню
1850798345894190157
true
Поиск по Справочному центру
true
true
true
true
true
73067
false
false
false