robots.txt

robots.txt è il nome di un file di testo che indica ai motori di ricerca quali URL o directory di un sito non devono essere sottoposti a scansione. Questo file contiene regole che bloccano singoli URL o intere directory per crawler specifici (o per tutti i crawler). Viene creato dal proprietario del sito web e memorizzato nella home directory del sito per impedire di sprecare tempo ed energie a gestire le richieste di scansione per pagine o risorse (ad esempio immagini) non abbastanza importanti da comparire nei risultati di ricerca. Se hai un sito di piccole dimensioni, probabilmente non hai bisogno di un file robots.txt.

Non utilizzare il file robots.txt per impedire che una pagina venga visualizzata nei risultati di ricerca, ma solo per evitare che venga sottoposta a scansione. Per impedire la visualizzazione di una pagina o di un'immagine nei risultati di ricerca, vengono utilizzate altre tecniche. Scopri di più sul file robots.txt

È stato utile?

Come possiamo migliorare l'articolo?

Hai bisogno di ulteriore assistenza?

Prova i passaggi successivi indicati di seguito:

true
Non conosci Search Console?

Non hai mai utilizzato Search Console prima d'ora? Inizia qui, che tu sia alle primissime armi, un esperto SEO o uno sviluppatore di siti web.

Ricerca
Cancella ricerca
Chiudi ricerca
Menu principale
5803910991797302999
true
Cerca nel Centro assistenza
true
true
true
true
true
83844
false
false