Как устранить проблему: ошибка robots.txt

Обновите файл robots.txt, чтобы разрешить агентам пользователя Googlebot сканировать сайт с 3D-объектами

Google не может просканировать ваш сайт и собрать данные о 3D-объектах. Чтобы предоставить Google доступ к контенту, вам требуется разрешить роботам Googlebot сканировать ваш сайт.

Для этого нужно добавить в файл robots.txt следующие строки:

User-agent: Googlebot

Disallow:

Подробнее о файлах robots.txt

После того как вы загрузите и протестируете файл robots.txt, больше ничего делать не придется: поисковые роботы автоматически найдут его и начнут использовать. Если вы внесли в файл robots.txt изменения и хотите как можно скорее обновить кешированную копию, следуйте нашим инструкциям.

Компания Google может использовать информацию, полученную от роботов, перечисленных выше, и от других агентов пользователя. Эти данные позволяют нам улучшать системы Google Рекламы.

Эта информация оказалась полезной?

Как можно улучшить эту статью?
Поиск
Очистить поле поиска
Закрыть поиск
Главное меню
1924827406294483363
true
Поиск по Справочному центру
true
true
true
true
true
104514
false
false