Google не может просканировать ваш сайт и собрать данные о 3D-объектах. Чтобы предоставить Google доступ к контенту, вам требуется разрешить роботам Googlebot сканировать ваш сайт.
Для этого нужно добавить в файл robots.txt следующие строки:
User-agent: Googlebot
Disallow:
Подробнее о файлах robots.txt…
После того как вы загрузите и протестируете файл robots.txt, больше ничего делать не придется: поисковые роботы автоматически найдут его и начнут использовать. Если вы внесли в файл robots.txt изменения и хотите как можно скорее обновить кешированную копию, следуйте нашим инструкциям.
Компания Google может использовать информацию, полученную от роботов, перечисленных выше, и от других агентов пользователя. Эти данные позволяют нам улучшать системы Google Рекламы.