Blocco dell'accesso ai file

Se desideri che alcune tue pagine o altri contenuti non compaiano nei risultati di ricerca di Google, hai a disposizione diverse opzioni.

  • Se desideri mantenere sul tuo server contenuti riservati, salvali in una directory protetta da password. Googlebot e altri spider non riusciranno ad accedere ai contenuti. Questo è il modo più semplice ed efficace per impedire a Googlebot e ad altri spider di eseguire la scansione e l'indicizzazione dei contenuti sul tuo sito. Se utilizzi il server web Apache, puoi modificare il file .htaccess per proteggere mediante password la directory sul tuo server. Esistono numerosi strumenti sul Web che ti consentono di eseguire facilmente questa operazione.

  • Utilizza un file robots.txt per controllare l'accesso ai file e alle directory sul tuo server. Il file robots.txt è come un segnale elettronico di divieto di accesso. Indica a Google e agli altri crawler i file e le directory sul tuo server che non devono essere sottoposti a scansione.

    Per poter utilizzare un file robots.txt, devi avere accesso alla directory principale del tuo host (se non sei sicuro di avere l'accesso, contatta il tuo servizio di hosting web). Se non hai accesso alla directory principale del tuo dominio, puoi limitare l'accesso utilizzando il meta tag robots sulle singole pagine.

    È importante sottolineare che, anche se utilizzi un file robots.txt per impedire agli spider di eseguire la scansione dei contenuti del tuo sito, Google potrebbe scoprirlo in altri modi e aggiungerlo comunque all'indice. Ad esempio, altri siti potrebbero contenere ancora link che rimandano al tuo sito. Di conseguenza, l'URL della pagina e, potenzialmente, altre informazioni disponibili pubblicamente, quali l'anchor text nei link al sito o il titolo fornito dall'Open Directory Project, possono essere visualizzati nei risultati di ricerca di Google. Inoltre, benché tutti i robot affidabili rispettino le istruzioni in un file robots.txt, alcuni potrebbero interpretarle diversamente. Tuttavia, non è possibile imporre l'applicazione di un file robots.txt e alcuni spammer potrebbero ignorarlo. Per questo motivo, ti consigliamo di proteggere mediante password le informazioni riservate (vedi sopra).

    Puoi analizzare il file robots.txt nella scheda URL bloccati (robots.txt) della pagina Accesso crawler.

    Informazioni sull'utilizzo di un file robots.txt per controllare l'accesso al tuo sito


  • Utilizza un meta tag noindex per impedire la pubblicazione di contenuti nei nostri risultati di ricerca. Se Google rileva un meta tag noindex su una pagina, elimina completamente la pagina dai risultati di ricerca, anche se le altre pagine contengono link a quest'ultima. Se sono attualmente nel nostro indice, i contenuti verranno eliminati alla successiva scansione e rielaborati. Per accelerare la rimozione, utilizza lo strumento Rimuovi URL disponibile in Strumenti per i Webmaster di Google. Altri motori di ricerca, tuttavia, possono interpretare questa istruzione in modo diverso. Di conseguenza, un link alla pagina può comunque essere presente nei risultati di ricerca.

    Poiché per poter vedere il tag noindex dobbiamo eseguire la scansione della tua pagina, esiste una piccola probabilità che Googlebot non rilevi e non rispetti il metatag noindex (ad esempio, se non abbiamo eseguito la scansione della pagina da quando hai aggiunto il tag).

    Informazioni sull'uso dei meta tag per controllare l'accesso al tuo sito