Come risolvere il problema: errore robots.txt

Aggiorna il file robots.txt per consentire allo user agent "Googlebot" di eseguire la scansione del tuo sito con gli asset 3D

Google non è in grado di eseguire la scansione del tuo sito web e di raccogliere informazioni sugli asset 3D. Per consentire a Google di accedere ai tuoi contenuti, assicurati che il file robots.txt consenta allo user agent "Googlebot" di eseguire la scansione del tuo sito.

Puoi farlo aggiungendo al file robots.txt le righe seguenti:

User-agent: Googlebot

Disallow:

Scopri di più sul protocollo di esclusione robot.

Una volta caricato e testato il file robots.txt, i crawler di Google lo troveranno automaticamente e inizieranno a utilizzarlo. Non devi fare nulla. Se hai aggiornato il file robots.txt e devi aggiornare al più presto la copia memorizzata nella cache di Google, scopri come inviare un file robots.txt aggiornato.

Google può utilizzare le informazioni ottenute da uno di questi o altri vari user agent per migliorare i sistemi Google Ads.

È stato utile?

Come possiamo migliorare l'articolo?

Hai bisogno di ulteriore assistenza?

Prova i passaggi successivi indicati di seguito:

Ricerca
Cancella ricerca
Chiudi ricerca
Menu principale
6992912623317976222
true
Cerca nel Centro assistenza
true
true
true
true
true
104514
false
false