Sådan fungerer Google Søgning

Se, hvordan Google finder, crawler og viser websider

Hvordan fungerer Google? Her får du en kort version og en lang version.

Google får oplysninger fra mange forskellige kilder, bl.a.: 

  • Websider
  • Brugerindsendt indhold som f.eks. Google My Business og brugerbidrag i Google Maps
  • Indscanning af bøger
  • Offentlige databaser på internettet
  • Og mange andre kilder.

Denne side fokuserer dog på websider.

Den korte version

Google følger tre grundlæggende trin for at generere resultater fra websider:

Crawl

Det første skridt er at finde ud af, hvilke sider der findes på internettet. Der findes ikke et centralt register for alle websider, så Google skal konstant søge efter nye sider og føje dem til sin liste over kendte sider. Denne registreringsproces kaldes crawl.

Nogle sider er kendte, fordi Google allerede har crawlet dem før. Andre sider registreres, når Google følger et link fra en kendt side til en ny side. Der er også sider, som registreres, når ejeren af et website indsender en liste over sider (et sitemap), som Google skal crawle. Hvis du bruger en administreret webhost, f.eks. Wix eller Blogger, kan de muligvis bede Google om at crawle eventuelle opdaterede eller nye sider, du opretter.

Sådan forbedrer du crawl af dit website:

  • Hvis du foretager ændringer på en enkelt side, kan du indsende en individuel webadresse til Google.
  • Få en anden side, som Google allerede kender, til at linke til din side. Dog skal du være opmærksom på, at links i annoncer, links, som du betaler for på andre websites, links i kommentarer eller andre links, der ikke overholder Googles retningslinjer for webmastere, ikke følges.
  • Hvis du anmoder Google om kun at crawle én side, så sørg for, at det er din startside. I forhold til Google er din startside den vigtigste side på dit website. Du opnår nemmere et komplet websitecrawl ved at sikre, at din startside (og alle andre sider) indeholder et godt system til at navigere på websitet med links til alle de vigtige sektioner og sider på dit website. Det gør det lettere for brugerne (og Google) at finde rundt på websitet.

 

Google tager ikke imod betaling for at crawle et website hyppigere eller rangere det højere. Hvis nogen fortæller dig noget andet, tager de fejl.

Indeksering

Når en side er registreret, forsøger Google at forstå, hvad siden handler om. Denne proces kaldes indeksering. Google analyserer indholdet på siden, katalogiserer integrerede billeder og videofiler og prøver ellers at forstå siden. Disse oplysninger gemmes i Google-indekset, som er en enorm database, der fylder mange, mange (mange!) computere.

Sådan forbedrer du indekseringen af dine sider:

  • Skriv korte, meningsfulde sidetitler.
  • Brug sideoverskrifter, der formidler emnet på siden.
  • Brug tekst i stedet for billeder til at formidle indhold. Google kan forstå nogle billeder og videoer, men ikke så godt som tekst. Som minimum bør du annotere dine videoer og billeder med alternativ tekst og andre attributter, hvor det er relevant.

Visning (og rangering)

Når en bruger skriver en forespørgsel, forsøger Google at finde det mest relevante svar fra sit indeks baseret på mange faktorer. Google forsøger at identificere de svar, der har den højeste kvalitet, og tager hensyn til andre overvejelser, der giver den bedste brugeroplevelse og det mest passende svar. Dette gøres ved at tage andre faktorer såsom brugerens placering, sprog og enhed (computer eller mobil) i betragtning. En søgning efter "cykelværksteder" vil f.eks. vise andre svar for en bruger i Paris end for en bruger i Hongkong. Google tager ikke imod betaling for at rangere sider højere, og rangeringen sker programmatisk.

Sådan forbedrer du din visning og rangering:

Den lange version

Vil du have flere oplysninger? Her kommer de:

Den lange version

 

Crawl

Crawl er den proces, hvormed Googlebot registrerer nye og opdaterede sider, der skal føjes til Googles indeks.

Vi bruger et enormt antal computere til at hente (eller "crawle") milliarder af sider på internettet. Det program, der udfører hentningen, hedder Googlebot (også kendt som en robot, bot eller spider). Googlebot bruger en algoritmisk procedure: Computerprogrammer bestemmer, hvilke websites der skal crawles, hvor ofte, og hvor mange sider der skal hentes fra hvert website.

Googles crawlprocedure begynder med en liste over webadresser, der er genereret i forbindelse med tidligere crawlprocedurer og udvidet med sitemapdata fra webmastere. Når Googlebot besøger de enkelte websites, registrerer den links på alle siderne og føjer dem til listen over sider, der skal crawles. Nye websites, ændringer af eksisterende websites og døde links bliver registreret og brugt til at opdatere Googles indeks.

Hvordan finder Google en side?

Google bruger mange teknikker til at finde en side, blandt andet:

  • Ved at følge links fra andre websites eller sider
  • Ved at læse sitemaps

Hvordan kan Google vide, hvilke sider der ikke skal crawles?

  • Sider, der er blokeret i robots.txt, bliver ikke crawlet, men kan stadig indekseres, hvis en anden side linker til dem. Google kan udlede indholdet af siden ved hjælp af et link, der peger på den, og indeksere siden uden at parse indholdet.
  • Google kan ikke crawle sider, der ikke er tilgængelige for en anonym bruger. Beskyttelse i form af login eller andre krav om godkendelse vil derfor forhindre en side i at blive crawlet.
  • Sider, der allerede er gennemgået og betragtes som dubletter af en anden side, crawles mindre hyppigt.

Sådan forbedrer du crawl

Brug disse teknikker til at hjælpe Google med at registrere de rigtige sider på dit website:

Indeksering

Googlebot behandler hver eneste side, den crawler, for at opbygge et solidt indeks af alle de ord, den møder, og deres placering på de enkelte sider. Desuden behandler vi de oplysninger, der medtages i vigtige indholdstags og attributter, f.eks. <titel>-tags og alt-attributter. Googlebot kan behandle mange, men ikke alle indholdstyper. Et eksempel på indhold, vi ikke kan behandle, er indholdet af visse rich media-filer.

På baggrund af crawling- og indekseringsprocessen vurderer Google, om en side er en dublet eller kanonisk for en anden side. Hvis siden vurderes til at være en dublet, vil den blive crawlet meget mindre hyppigt.

Bemærk! Google indekserer ikke sider, der har et noindex-direktiv (header eller tag). Det skal dog være muligt at se direktivet. Hvis siden er blokeret af en robots.txt-fil, en loginside eller en anden foranstaltning, er det muligt, at siden indekseres, selvom Google ikke har besøgt den.

Sådan forbedrer du din indeksering

Der er mange teknikker til at forbedre Googles evne til at forstå indholdet på din side:

Visning af resultater

Når en bruger indtaster en forespørgsel, søger vores maskiner i indekset for at finde matchende sider og returnere de resultater, som vi mener, er de mest relevante for brugeren. Relevansen bestemmes ud fra mere end 200 faktorer, og vi arbejder altid på at forbedre vores algoritme. Google tager brugeroplevelsen i betragtning, når resultaterne vælges og rangeres, så sørg for, at din side indlæses hurtigt og er mobilvenlig.

Sådan forbedrer du din visning

  • Hvis dine resultater er rettet mod brugere på bestemte steder eller sprog, kan du fortælle Google om dine præferencer.
  • Sørg for, at din side indlæses hurtigt og er mobilvenlig.
  • Følg retningslinjerne for webmastere for at undgå almindelige faldgruber og forbedre dit websites rangering.
  • Overvej implementering af funktioner for søgeresultater for dit website, f.eks. opskriftskort eller artikelkort.
  • Implementer AMP for hurtigere at indlæse sider på mobilenheder. Nogle AMP-sider er også kvalificerede til yderligere søgefunktioner, f.eks. karrusellen med tophistorier.
  • Googles algoritme bliver konstant forbedret. Frem for at forsøge at gætte algoritmen og udvikle din side derefter, bør du arbejde på at skabe godt, nyt indhold, som brugerne vil have, og følge vores retningslinjer.

En endnu længere version

Her finder du en endnu længere version af, hvordan Google Søgning fungerer (med billeder og video!)

Var disse oplysninger nyttige?
Hvordan kan vi forbedre siden?