Google kann Ihre Website weder crawlen noch Informationen zu 3D-Assets erheben. Um Google Zugriff auf Ihre Inhalte zu gewähren, muss die robots.txt-Datei dem User-Agent „Googlebot“ das Crawlen Ihrer Website ermöglichen.
Fügen Sie dazu in die robots.txt-Datei die folgenden Zeilen ein:
User-agent: Googlebot
Disallow:
Weitere Informationen zum Protokoll zum Ausschluss von Robots finden Sie hier.
Sobald Sie Ihre robots.txt-Datei hochgeladen und getestet haben, wird sie von den Google-Crawlern automatisch gefunden und verwendet. Sie brauchen nichts zu unternehmen. Wie Sie vorgehen müssen, wenn Sie Ihre robots.txt-Datei bearbeitet haben und die im Google-Cache gespeicherte Version schnellstmöglich aktualisieren möchten, erfahren Sie unter Aktualisierte robots.txt-Datei bei Google einreichen.
Google kann die Informationen aus diesen oder anderen User-Agents nutzen, um die Google Ads-Systeme zu verbessern.