Informatie over hoe Google je sitecontent ophaalt

Google gebruikt een combinatie van softwareprogramma's en algoritmen om je webcontent op te halen, zodat gebruikers van Google Zoeken die mogelijk geïnteresseerd zijn in je site, deze kunnen vinden. Als zodanig zijn de processen waarmee Google je content ophaalt, grotendeels automatisch en hoef je weinig tot niets te doen.

Crawlen is een proces dat Google uitvoert om openbare webcontent te verzamelen voor Google-zoekresultaten. Voor het crawlen gebruikt Google gespecialiseerde software, zogenaamde webcrawlers, die websites automatisch vinden en ophalen.

Webcrawlers:
Eenvoudig gezegd: webcrawlers halen content van internet op voor zoekmachines. Webcrawlers volgen links van site naar site, downloaden de pagina's die ze tegenkomen en slaan deze op voor later gebruik. Complexe algoritmen sorteren en analyseren vervolgens de gedownloade webpagina's om de resultaten van de Google-zoekmachine bij te werken. De belangrijkste webcrawler die Google gebruikt, heet Googlebot.

Weergeven is een ander proces dat Google gebruikt om inzicht te krijgen in hoe je webpagina's eruitzien en zich gedragen voor je gebruikers in verschillende browsers en op verschillende apparaten. Vergelijkbaar met hoe een browser een webpagina weergeeft, haalt Google je URL op en voert het codebestand voor die pagina uit (gewoonlijk html en JavaScript). Google crawlt vervolgens alle resources waarnaar het hoofdcodebestand verwijst (gewoonlijk afbeeldingsbestanden, stylesheet-bestanden en andere JavaScript-bestanden) voor een visuele indeling van je pagina en om beter inzicht in je content te krijgen.

Als Google je pagina's niet correct kan crawlen of weergeven, kan dit op enkele verschillende manieren de zichtbaarheid en weergave van je site in Google-zoekresultaten beïnvloeden:

  • Als Google je site niet kan crawlen, kunnen we geen informatie over je site krijgen. Google Zoeken kan mogelijk niet alle delen van je site vinden of kan de zoekopdrachten van gebruikers op Google Zoeken die het relevantst zijn voor je webpagina's en waarvoor je site zou moeten worden weergegeven in Google-zoekresultaten, niet correct identificeren.
  • Als Google de pagina's op je site niet kan weergeven, wordt het moeilijker inzicht te krijgen in je webcontent omdat belangrijke informatie over de visuele indeling van je webpagina's ontbreekt. Dit kan de zichtbaarheid van je sitecontent op Google Zoeken negatief beïnvloeden. We moeten je webpagina's weergeven om de waarde van je site voor verschillende bezoekers in te schatten en te bepalen waar links naar je site moeten worden weergegeven in Google-zoekresultaten.

Met de URL-inspectietool kun je een diagnose van het crawlen en weergeven van je pagina's uitvoeren. Aan de hand hiervan kun je je Google-zoekresultaten verbeteren zodat je uiteindelijk de gewenste doelgroep bereikt.

HIERNA: INZICHT KRIJGEN IN DE GEVOLGEN VAN CRAWLEN EN WEERGEVEN

Was dit nuttig?
Hoe kunnen we dit verbeteren?