Problemlösung: Fehler in der robots.txt-Datei

Ändern Sie die robots.txt-Datei so, dass der User-Agent „Googlebot“ berechtigt ist, Ihre Website mit den 3D-Assets zu crawlen.

Google kann Ihre Website weder crawlen noch Informationen zu 3D-Assets erheben. Um Google Zugriff auf Ihre Inhalte zu gewähren, muss die robots.txt-Datei dem User-Agent „Googlebot“ das Crawlen Ihrer Website ermöglichen.

Fügen Sie dazu in die robots.txt-Datei die folgenden Zeilen ein:

User-agent: Googlebot

Disallow:

Weitere Informationen zum Protokoll zum Ausschluss von Robots finden Sie hier.

Sobald Sie Ihre robots.txt-Datei hochgeladen und getestet haben, wird sie von den Google-Crawlern automatisch gefunden und verwendet. Sie brauchen nichts zu unternehmen. Wie Sie vorgehen müssen, wenn Sie Ihre robots.txt-Datei bearbeitet haben und die im Google-Cache gespeicherte Version schnellstmöglich aktualisieren möchten, erfahren Sie unter Aktualisierte robots.txt-Datei bei Google einreichen.

Google kann die Informationen aus diesen oder anderen User-Agents nutzen, um die Google Ads-Systeme zu verbessern.

War das hilfreich?

Wie können wir die Seite verbessern?

Benötigen Sie weitere Hilfe?

Mögliche weitere Schritte:

Suche
Suche löschen
Suche schließen
Hauptmenü
9000475993600951153
true
Suchen in der Hilfe
true
true
true
true
true
104514
false
false