robots.txt-bestand

robots.txt is de naam van een tekstbestand dat zoekmachines laat weten welke URL's of directory's op een site niet moeten worden gecrawld. Dit bestand bevat regels die afzonderlijke URL's of hele directory's blokkeren voor specifieke crawlers (of alle crawlers). Het bestand wordt gemaakt door de website-eigenaar en opgeslagen in de homedirectory van de site om te voorkomen dat de site tijd en energie besteedt aan crawlverzoeken voor pagina's of bronnen (zoals afbeeldingen) die niet belangrijk genoeg zijn om te worden weergegeven in zoekresultaten. Als je een kleine site hebt, heb je waarschijnlijk geen robots.txt-bestand nodig.

Gebruik robots.txt niet om te voorkomen dat een pagina wordt weergegeven in zoekresultaten, maar alleen om te voorkomen dat de pagina wordt gecrawld. Andere technieken worden gebruikt om te voorkomen dat een pagina of afbeelding wordt weergegeven in zoekresultaten. Meer informatie over robots.txt

Was dit nuttig?

Hoe kunnen we dit verbeteren?
true
Nieuw bij Search Console?

Heb je Search Console nog nooit gebruikt? Begin hier, of je nu beginner, SEO-expert of website-ontwikkelaar bent.

Zoeken
Zoekopdracht wissen
Zoekfunctie sluiten
Hoofdmenu
6075788896515982418
true
Zoeken in het Helpcentrum
true
true
true
true
true
83844
false
false