Этап 1. Поиск несканируемого URL
Несканируемые страницы в динамических поисковых объявлениях можно определить тремя способами:
- Если в качестве типа таргетинга выбрано
URL-Equals
и URL не сканируется, в статусе цели динамической рекламы будет указано "Отклонено: невозможно просканировать страницу". - Если вы используете фиды страниц и URL фида не сканируется, в строке для этого URL будет указан статус "Отклонено: невозможно просканировать страницу".
- Если вы используете любой другой механизм таргетинга и URL не сканируется, Google Ads не будет знать об этом. Следовательно, сообщение об ошибке не будет отображаться. Если целевая страница не привлекает трафик, можно сначала настроить таргетинг с использованием
URL-Equals
или фидов страниц. URL либо привлечет трафик, либо вы получите сообщение об ошибке и поймете ее причину.
Этап 2. Убедитесь, что роботу Google AdsBot разрешено сканировать целевую страницу
- Скопируйте и вставьте URL в адресную строку браузера.
- Добавьте элемент
/robots.txt
в конец доменного имени и нажмите клавишу "Ввод". Например, если URL целевой страницы выглядит какhttp://www.example.com/folder1/folder2/
, введитеhttp://www.example.com/robots.txt
. Так вы узнаете, каким роботам разрешено сканировать домен. - Найдите строку
User-agent: AdsBot-Google
.- Если такой строки нет, попросите веб-мастера добавить ее.
- Если страница пустая, попросите веб-мастера добавить в домен файл
robots.txt
. - Если строка
User-agent: AdsBot-Google
есть в файле, убедитесь, что после нее нет строки с элементомDisallow: /
. Также проверьте, нет ли в файле какой-либо другой строки, которая запрещает роботу AdsBot-Google доступ к целевой странице. Подробнее о файлахrobots.txt
и поисковых роботах Google…
- Если целевая страница является субдоменом, проверьте, есть ли в субдомене собственный файл
robots.txt
. Путь к этому файлу может выглядеть так:https://subdomain.domain.com/robots.txt
. Убедитесь, что этот файлrobots.txt
также не блокирует роботуUser-agent: AdsBot-Google
доступ к целевой странице. - Откройте источник URL. Для этого в Chrome, например, откройте
view-source:THE_URL
. Чтобы проверить, каким роботам разрешено сканировать домен, для целевой страницыhttp://www.example.com/folder1/folder2/
, введитеview-source:http://www.example.com/folder1/folder2/
. - Найдите строку "
AdsBot-Google
".- Если ее нет, то следует искать другую причину проблемы.
- Если в строке присутствует тег, например,
<meta name="AdsBot-Google" content="noindex" />
, попросите веб-мастера его удалить. Подробнее о метатегах, которые поддерживаются в Google…
Другие причины проблем со сканированием целевой страницы
Если Google AdsBot может сканировать целевую страницу (то есть строка User-agent: AdsBot-Google
присутствует в файле robots.txt
), ошибки со сканированием могут возникать и по другим причинам:
- Целевая страница не загружается. Если вы пытаетесь открыть ее в браузере и видите сообщение об ошибке (например, "404 – страница не найдена", "Сайт недоступен", "Срок действия вашего сеанса истек" и т. д.), попросите веб-мастера сайта проверить, может ли целевая страница загружаться в любом браузере и на любой платформе (как на компьютерах, так и на мобильных устройствах).
- Целевая страница требует входа в аккаунт. Все целевые страницы должны быть общедоступными. Укажите другую целевую страницу или попросите веб-мастера отключить на ней запрос на вход в аккаунт.
- На целевой странице используется слишком много переадресаций. Их должно быть не больше 10. Попросите веб-мастера исправить эту проблему. Подробнее о переадресациях…