Leistung Ihrer Website bei der Suche überprüfen

Google ist bestrebt, bei jeder Suchanfrage Ergebnisse mit höchster Relevanz bereitzustellen. Die Suchergebnisse werden über unseren Suchindex zurückgegeben. Der Suchindex wird ständig erweitert, während Inhalte im Web hinzugefügt und geändert werden. Diese Inhaltsänderungen und die Aktualisierungen unserer Ranking-Algorithmen können dazu führen, dass sich die Positionen von URLs in den Suchergebnissen ändern und die URLs möglicherweise sogar entfernt werden.

Uns ist bekannt, dass diese Änderungen verwirrend sein können. Weisen zahlreiche Websites Verweise auf Ihre Website auf, fügen wir Ihre Website wahrscheinlich beim nächsten Crawling wieder hinzu. Wir können zwar nicht garantieren, dass eine bestimmte Seite ständig in unserem Index enthalten ist oder eine bestimmte Platzierung erhält, jedoch bieten unsere Richtlinien für Webmaster hilfreiche Tipps, wie Ihre Website gut von unseren Crawlern durchsucht werden kann. Bei Berücksichtigung dieser Empfehlungen erhöhen sich die Chancen, dass Ihre Website kontinuierlich in unseren Suchergebnissen enthalten ist.

Erscheint Ihre Website nicht in den Google-Suchergebnissen oder schneidet sie schlechter ab als zuvor, führen Sie zur Identifizierung möglicher Ursachen und zur Fehlerbehebung die folgenden Schritte durch.

Präsenz Ihrer Website im Google-Index überprüfen

  • "site:"-Suche durchführen

    Wenn uns Webmaster schreiben, dass ihre Website nicht mehr in unseren Suchergebnissen enthalten ist, stellen wir oft fest, dass sie immer noch enthalten ist. Führen Sie einfach eine Google-Suche nach der Website mit der vollständigen URL durch. So lässt sich feststellen, ob Ihre Website noch in unserem Index enthalten ist. Bei einer Suche nach site:google.com erhalten Sie beispielsweise die folgenden Ergebnisse: http://www.google.com/search?num=100&q=site:google.com. Beachten Sie, dass sich zwischen dem Operator site: und Ihrem Domainnamen kein Leerzeichen befinden darf.

    Wird Ihre Website bei einer Google-Website-Suche nach der URL angezeigt, ist sie in unserem Index enthalten.

    Wurde Ihre Website aus dem Google-Index entfernt, obwohl sie zuvor indexiert war, ist dies möglicherweise auf einen Verstoß gegen die Richtlinien für Webmaster zurückzuführen. Lesen Sie die Richtlinien und reichen Sie nach der Fehlerbehebung einen Antrag auf erneute Überprüfung ein.

  • Überprüfen, ob Ihre Website bei einer Suche nach dem Domainnamen in den Suchergebnissen erscheint

    Führen Sie eine Google-Suche nach www.[ihredomain].de durch. Wird Ihre Website nicht in den Suchergebnissen angezeigt oder weist sie ein eher schlechtes Ranking auf, liegt dies möglicherweise an einem Verstoß der Website gegen die Richtlinien für Webmaster. Falls wir bestimmte Probleme mit Ihrer Website feststellen, beispielsweise Malware, werden Sie von uns über das Nachrichten-Center informiert. Darüber hinaus empfehlen wir Ihnen, Ihre Website anhand der Richtlinien für Webmaster zu überprüfen. Sobald Sie alle Probleme behoben haben, können Sie einen Antrag auf erneute Überprüfung einreichen.

  • Uns über neue Inhalte benachrichtigen

    Sollte Ihre Website neu sein, ist sie uns unter Umständen noch nicht bekannt. Informieren Sie Google über Ihre Website. Sie können die Erkennung neuer Seiten durch Google beschleunigen, indem Sie eine Sitemap einreichen. Selbst wenn Ihre Website bereits indexiert ist, können Sie mithilfe von Sitemaps die aus Ihrer Sicht wichtigsten Seiten angeben.

Überprüfen, ob Ihre Website von einer manuellen Spammaßnahme betroffen ist

  • Seite "Manuelle Maßnahmen" aufrufen

    Google setzt automatische Systeme ein, um Webseiten zu crawlen, zu indexieren und bereitzustellen. Bei Bedarf wenden wir jedoch auch manuelle Maßnahmen an, um die Qualität unserer Suchergebnisse zu sichern. Wenn Ihre Website Spam enthält oder auf andere Weise gegen die Richtlinien für Webmaster verstößt, ergreift Google unter Umständen manuelle Maßnahmen, um die Website in unseren Suchergebnissen abzuwerten oder gänzlich daraus zu entfernen. Sollte Ihre Website aufgrund einer manuellen Spammaßnahme ein niedrigeres Ranking in den Suchergebnissen erhalten, werden Sie darüber auf der Seite Manuelle Maßnahmen in der Search Console informiert. Sie müssen Ihre Website hinzugefügt und bestätigt haben, um Zugriff auf diese Daten zu erhalten. Um diese Daten zu sehen, müssen Sie Ihre Website hinzugefügt und bestätigt haben.

Sicherstellen, dass Google Ihre Website finden und crawlen kann

Als Crawling wird der Prozess bezeichnet, durch den der Googlebot neue und aktualisierte Seiten ermittelt und diese dem Google-Index hinzufügt. Der Crawling-Prozess beginnt mit einer Liste von Webseiten-URLs, die aus vorhergehenden Crawling-Prozessen generiert und mit den von den Webmastern bereitgestellten Sitemap-Daten vervollständigt wurde. Beim Besuch auf diesen Websites erkennt der Googlebot Links auf jeder Seite und fügt sie zur Liste der zu crawlenden Seiten hinzu. Neue Websites, Änderungen an bestehenden Websites und veraltete Links werden ermittelt und zur Aktualisierung des Google-Indexes verwendet.

  • Achten Sie auf Crawling-Fehler. Die Seite Crawling-Fehler in der Search Console enthält Informationen zu den URLs auf Ihrer Website, die gecrawlt werden sollten, aber nicht zugänglich waren. Überprüfen Sie diese Fehler und korrigieren Sie sie, falls möglich. Beim nächsten Crawlen Ihrer Website durch den Googlebot werden die Änderungen ermittelt und der Google-Index wird entsprechend aktualisiert.
  • Überprüfen Sie Ihre robots.txt-Datei. Mit dem robots.txt-Analysetool können Sie Ihre robots.txt-Datei dahingehend analysieren, ob Sie URLs oder Verzeichnisse auf Ihrer Website für den Googlebot blockiert haben.
  • Vergewissern Sie sich, dass die URLs nicht durch Meta-Tags blockiert werden.
  • Überprüfen Sie die Struktur Ihrer Website und stellen Sie sicher, dass der Zugriff darauf problemlos möglich ist. Die meisten Suchmaschinen sind textbasiert. Sofern die Navigation oder Links mit JavaScript, DHTML, Bildern oder Rich Media-Formaten wie Silverlight erstellt wurden, können Googlebot und andere Spider Ihre Website nicht einwandfrei crawlen.
  • Falls Sie Ihre Website kürzlich umstrukturiert haben oder über eine neue Domain verfügen, erzielen Seiten mit bisher guten Leistungen möglicherweise nun eher schlechte Ränge. Dies lässt sich vermeiden. Leiten Sie dazu Ihre Nutzer, den Googlebot und andere Spider über 301-Weiterleitungen ("RedirectPermanent") in der Datei "*.htaccess" zur neuen Domain weiter. Nehmen Sie diese Weiterleitung bei Apache über eine ".htaccess"-Datei vor, bei IIS über die Verwaltungskonsole. Weitere Informationen zu 301-HTTP-Weiterleitungen erhalten Sie unter http://www.ietf.org/rfc/rfc2616.txt (auf Englisch).
  • Ziehen Sie in Betracht, eine Sitemap zu erstellen und einzureichen. Selbst wenn Ihre Website bereits indexiert ist, können Sie Google mithilfe von Sitemaps über Ihre Website informieren und die für Sie wichtigsten URLs angeben. Im Fall von Websites mit dynamischem Content bzw. Content, der nicht ohne Probleme vom Googlebot gefunden werden kann, sind Sitemaps besonders hilfreich. Dies gilt auch für Websites, auf die noch nicht so viele Links verweisen.

Sicherstellen, dass Google Ihre Website indexieren kann

Der Googlebot verarbeitet jede der gecrawlten Seiten und kompiliert einen umfangreichen Index aller Wörter, die auf den Seiten ermittelt wurden, sowie deren Position auf den einzelnen Seiten. Zusätzlich werden die Informationen in wichtigen Inhalts-Tags und -Attributen wie Title-Tags und ALT-Attributen verarbeitet. Google kann zahlreiche Inhaltstypen verarbeiten. Wir können HTML- und PDF-Dateien verarbeiten, die Verarbeitung von Flash-Dateien sowie anderen Rich Media-Formaten wie Silverlight ist allerdings aufwendiger, beispielsweise das Crawlen und Indexieren.

  • Sehen Sie sich die Index-Statistiken Ihrer Website an. Diese Statistiken zeigen, wie Ihre Seiten im Google-Index vertreten sind.
  • Überprüfen Sie die Struktur Ihrer Website. Google ist wie die meisten Suchmaschinen textbasiert. Folglich kann Googlebot Text in Bildern oder in den meisten Rich Media-Dateien mit Ausnahme von Flash-Dateien nicht lesen. Dies gilt zudem für Text auf Seiten, die auf JavaScript basieren oder für die eine Anmeldung erforderlich ist. Stellen Sie daher sicher, dass Ihr Inhalt textbasiert und lesbar ist, um Nutzern und dem Googlebot den Zugriff darauf zu erleichtern.

Sicherstellen, dass der Content nützlich und relevant ist

  • Auf der Seite Suchanfragen lässt sich ermitteln, wie Nutzer auf Ihre Website gelangen. Die erste Spalte enthält die Google-Suchanfragen, bei denen Ihre Website am häufigsten erscheint. Außerdem werden auf der Seite die Anzahl der Impressionen und der Klicks sowie die CTR (Klickrate) für die einzelnen Suchanfragen angezeigt. Diese Angaben sind äußerst hilfreich, denn Sie verschaffen Ihnen einen Eindruck davon, wonach die Nutzer suchen (Suchanfrage) und bei welchen Suchanfragen sie am häufigsten auf Ihre Website klicken. Angenommen, Ihre Website wird häufig angezeigt, wenn in Google nach Espressozubehör und Kaffeezubehör gesucht wird. Falls die CTR Ihrer Website für letztere Suchanfrage jedoch gering ist, könnte dies daran liegen, dass für die Nutzer nicht klar ersichtlich ist, dass Ihre Website Informationen zu Kaffeezubehör enthält. Überarbeiten Sie in diesem Fall den Content und gestalten Sie ihn ansprechender und aussagekräftiger. Vermeiden Sie aber überflüssige Keywords auf Ihrer Website. Andernfalls werden möglicherweise das Ranking und die Nutzerfreundlichkeit Ihrer Website beeinträchtigt.
  • Ermitteln Sie, wie Google Ihre Website sieht. Die Seite Content-Keywords enthält die Suchbegriffe und Wortgruppen, die auf anderen Websites für die Verknüpfung zu Ihrer Website verwendet werden. Wenn Sie wissen, wie Nutzer Ihre Website sehen, können Sie die Ausrichtung auf Ihre Zielgruppe optimieren.
  • Sehen Sie sich die Seite HTML-Verbesserungen in der Search Console an. Beschreibende Informationen in Titel-Tags und Meta-Beschreibungen geben uns Aufschluss über die Inhalte Ihrer Website. Außerdem lässt sich dieser Text auf den Suchergebnisseiten anzeigen. Dies kann sich als nützlich erweisen, da auf beschreibenden Text mit größerer Wahrscheinlichkeit geklickt wird.
  • Informieren Sie Nutzer weltweit über Ihre Website. Anhand von auf Ihre Website verweisenden Links ermittelt Google die Relevanz der Website für die Suchanfrage eines Nutzers. Natürliche Links zu Ihrer Website ergeben sich aus der Dynamik des Webs, wenn die Inhaber anderer Websites den Inhalt Ihrer Website für relevant und hilfreich für ihre Nutzer erachten.
  • Überprüfen Sie, ob ein Teil Ihrer Inhalte als Inhalt für Erwachsene markiert wurde, indem Sie SafeSearch deaktivieren. Google SafeSearch filtert Websites mit pornografischen oder eindeutig sexuellen Inhalten aus Ihren Suchergebnissen. SafeSearch nutzt eine fortschrittliche Technologie, die Keywords und Wortgruppen, URLs und Open Directory-Kategorien prüft, aber kein Filter bietet absolute Sicherheit.
  • Ein großartiger Bildinhalt kann eine exzellente Möglichkeit sein, Zugriffe auf Ihre Website zu generieren. Wir empfehlen, dass Sie bei der Veröffentlichung von Bildern darüber nachdenken, wie diese dem Nutzer am hilfreichsten sein können. Befolgen Sie darüber hinaus unsere Richtlinien für Bilder.

Mitbewerber haben praktisch keine Möglichkeit, Ihr Ranking negativ zu beeinflussen oder Ihre Website aus dem Index zu entfernen. Wenn Ihnen der Link von einer anderen Website zu Ihrer eigenen Website Sorgen bereitet, sollten Sie sich mit dem Webmaster der entsprechenden Website in Verbindung setzen. Google erfasst und ordnet Informationen, die im Web veröffentlicht wurden. Wir haben aber keinen Einfluss auf die Inhalte dieser Seiten.

Schwankungen bei den Suchergebnissen sind gelegentlich auch auf Unterschiede zwischen unseren Rechenzentren zurückzuführen. Beim Durchführen einer Google-Suche wird Ihre Suchanfrage an ein Datenzentrum gesendet, über das die Suchergebnisse abgerufen werden. Es gibt viele Rechenzentren und viele Faktoren, wie beispielsweise die geografische Lage und der Suchverkehr, bestimmen, an welches Rechenzentrum eine Anfrage gesendet wird. Da nicht alle unsere Rechenzentren gleichzeitig aktualisiert werden, ist es möglich, dass geringfügig unterschiedliche Suchergebnisse angezeigt werden, je nachdem, in welchem Rechenzentrum eine Anfrage bearbeitet wird.

War dieser Artikel hilfreich?