So funktioniert die Google-Suche

So erkennt und crawlt Google Webseiten und nimmt sie in die Suchergebnisse auf

Wie funktioniert die Google-Suche? Hier finden Sie auf diese Frage eine kurze und eine lange Antwort.

Google erhält Informationen von vielen unterschiedlichen Quellen, z. B. von 

  • Webseiten,
  • Inhalten, die von Nutzern eingereicht werden, z. B. in Google My Business und Maps.
  • Bücherscans,
  • öffentlichen Datenbanken im Internet
  • und vielen mehr.

In diesem Artikel beschränken wir uns auf Webseiten.

Die kurze Antwort

Mithilfe der folgenden drei Schritte werden aus Webseiten Suchergebnisse:

Crawling

Im ersten Schritt wird festgestellt, welche Seiten im Web existieren. Es gibt kein zentrales Verzeichnis aller Webseiten. Deshalb muss Google laufend nach neuen Seiten suchen und sie zu seiner Liste bekannter Seiten hinzufügen. Dieser Prozess des Verarbeitens neuer Seiten wird Crawling genannt.

Einige Seiten sind bekannt, da sie schon zuvor von Google gecrawlt wurden. Andere Seiten werden entdeckt, wenn Google einem Link von einer bekannten Seite folgt, der auf eine neue Seite verweist. Wieder andere Seiten werden gefunden, wenn ein Websiteinhaber eine Liste von Seiten – eine sogenannte Sitemap – einreicht, damit sie von Google gecrawlt wird. Wenn Sie einen verwalteten Webhost verwenden, wie Wix oder Blogger, wird Google möglicherweise von diesem Dienst informiert, dass aktualisierte oder neue, von Ihnen erstellte Seiten gecrawlt werden müssen.

So verbessern Sie das Crawling für Ihre Website:

  • Wenn Sie eine einzelne Seite ändern, können Sie eine einzelne URL an Google senden.
  • Es hilft, wenn sich auf einer anderen Seite, die Google bereits kennt, ein Link auf Ihre Seite befindet. Beachten Sie jedoch, dass Links in Anzeigen, Links, für die Sie auf anderen Websites bezahlen, Links in Kommentaren oder andere Links, die nicht den Google-Richtlinien für Webmaster entsprechen, nicht beachtet werden.

 

Google akzeptiert keine Zahlungen, um eine Website häufiger zu crawlen oder höher einzustufen. Falls Sie etwas anderes gehört haben, sind sie falsch informiert worden.

Indexierung

Nachdem eine Seite gefunden wurde, versucht Google zu verstehen, worum es auf der Seite geht. Dieser Vorgang wird Indexierung genannt. Google analysiert den Inhalt der Seite, katalogisiert die auf der Seite eingebetteten Bilder und Videodateien und versucht anderweitig, die Seite zu verstehen. Diese Informationen werden im Google-Index gespeichert, einer riesigen Datenbank, die aus unzähligen Computern besteht.

So verbessern Sie die Indexierung Ihrer Seiten:

  • Erstellen Sie kurze, aussagekräftige Titel für die Seiten.
  • Verwenden Sie Seitenüberschriften, die das Thema der jeweiligen Seite vermitteln.
  • Verwenden Sie Text statt Bildern, um Inhalte zu vermitteln. Google kann zwar Bilder und Videos einigermaßen verstehen, aber nicht so gut wie Text. Versehen Sie Ihre Videos und Bilder zumindest mit alternativem Text und anderen Attributen.

Aufnahme in die Suchergebnisse und Ranking

Wenn ein Nutzer eine Suchanfrage eingibt, versucht Google, auf der Basis zahlreicher Faktoren die relevanteste Antwort in seinem Index zu finden. Google versucht, die Ergebnisse mit der besten Qualität zu finden und andere Aspekte einzubeziehen, die den höchsten Nutzen und die treffendste Antwort liefern. Dabei werden Umstände beachtet wie der Standort des Nutzers, die Sprache und das verwendete Gerät, d. h. ob auf einem Computer oder Smartphone gesucht wird. Beispielsweise erhält ein Nutzer in Paris, der nach einem "Fahrradreparaturgeschäft" sucht, andere Antworten als ein Nutzer in Hongkong. Google akzeptiert keine Zahlungen, um eine Website höher einzureihen. Das Ranking erfolgt automatisch.

So verbessern Sie Ihre Aufnahme in die Suchergebnisse und das Ranking:

Die lange Antwort

Sie möchten mehr wissen? Bitte schön:

Die lange Antwort

 

Crawling

Crawling bezeichnet den Prozess, durch den der Googlebot neue und aktualisierte Seiten ermittelt, damit sie zum Google-Index hinzugefügt werden.

Wir setzen unzählige Computer ein, die täglich Milliarden von Webseiten durchsuchen ("crawlen"). Das Programm, das diese Seiten durchsucht, heißt Googlebot. Andere Bezeichnungen für solche Programme sind "Robot", "Bot" und "Spider". Der Googlebot verwendet einen algorithmischen Prozess. Dabei wird durch Computerprogramme bestimmt, welche Websites wann und wie oft durchsucht werden und wie viele Seiten von jeder Website abgerufen werden.

Der Crawling-Prozess von Google beginnt mit einer Liste von Webseiten-URLs, die aus vorhergehenden Crawling-Prozessen stammt und mit Sitemap-Daten von Webmastern vervollständigt wurde. Beim Besuch auf diesen Websites erkennt der Googlebot Links auf jeder Seite und fügt sie zur Liste der zu crawlenden Seiten hinzu. Neue Websites, Änderungen an bestehenden Websites und veraltete Links werden ermittelt und zur Aktualisierung des Google-Indexes verwendet.

Wie findet Google eine Seite?

Google verwendet viele Methoden, um eine Seite zu finden, darunter:

  • Links auf anderen Websites oder Webseiten folgen
  • Sitemaps lesen

Wie entscheidet Google, welche Seiten nicht gecrawlt werden?

  • Seiten, die über robots.txt gesperrt sind, werden nicht gecrawlt, werden aber möglicherweise indexiert, wenn ein Link von einer anderen Seite auf sie verweist. Google kann mithilfe eines Links, der auf eine Seite verweist, Rückschlüsse auf den Inhalt dieser Seite ziehen und sie indexieren, ohne ihren Inhalt zu parsen.
  • Google kann nur Seiten crawlen, die auch für anonyme Nutzer zugänglich sind. Deshalb können keine Seiten gecrawlt werden, für die eine Anmeldung erforderlich ist oder eine anderweitige Zugriffsbeschränkung besteht.

So verbessern Sie das Crawling für Ihre Website

Mit den folgenden Methoden können Sie gewährleisten, dass Google die richtigen Seiten Ihrer Website findet.

Indexierung

Der Googlebot verarbeitet jede der gecrawlten Seiten und kompiliert einen umfangreichen Index aller Wörter, die auf den Seiten ermittelt wurden, sowie deren Position auf den einzelnen Seiten. Zusätzlich werden die Informationen in wichtigen Inhalts-Tags und -Attributen wie <title>-Tags und ALT-Attributen verarbeitet. Der Googlebot kann viele verschiedene Inhaltstypen verarbeiten, aber nicht alle. Beispielsweise können wir den Inhalt einiger Rich Media-Dateien nicht verarbeiten.

Beachten Sie, dass Seiten mit der Anweisung "noindex" als Header oder Tag nicht gecrawlt werden. Der Gooblebot muss jedoch in der Lage sein, die Anweisung zu sehen. Wenn die Seite von einer robots.txt-Datei, einer Anmeldeseite oder anderweitig blockiert wird, ist es möglich, dass die Seite indexiert wird, selbst wenn Google sie nicht besucht hat.

So verbessern Sie die Indexierung Ihrer Webseiten

Es gibt viele Methoden, um Google zu helfen, den Inhalt Ihrer Seite zu verstehen:

Ergebnisse bereitstellen

Gibt ein Nutzer eine Suchanfrage ein, durchsuchen unsere Computer den Index nach übereinstimmenden Seiten und geben die Ergebnisse zurück, die unserer Meinung nach am relevantesten für den Nutzer sind. Die Relevanz wird von mehr als 200 Faktoren bestimmt und wir arbeiten laufend an der Verbesserung unseres Algorithmus. Google berücksichtigt bei der Auswahl und beim Ranking der Ergebnisse die Benutzerfreundlichkeit. Achten Sie deshalb darauf, dass Ihre Seite schnell geladen wird und für Mobilgeräte optimiert ist.

So verbessern Sie die Aufnahme Ihrer Seite in die Suchergebnisse

Eine noch längere Antwort

Hier finden Sie eine noch längere Antwort auf die Frage, wie die Google-Suche funktioniert, einschließlich Bildern und Videos.

War dieser Artikel hilfreich?
Wie können wir die Seite verbessern?