Leistung Ihrer Website bei der Suche prüfen

Mögliche Gründe, weshalb Ihre Seiten nicht in den Suchergebnissen erscheinen

Google ist bestrebt, bei jeder Suchanfrage Ergebnisse mit höchster Relevanz bereitzustellen. Die Suchergebnisse werden über unseren Suchindex zurückgegeben. Der Suchindex wird ständig erweitert, während Inhalte im Web hinzugefügt und geändert werden. Diese Inhaltsänderungen und die Aktualisierungen unserer Ranking-Algorithmen können dazu führen, dass sich die Positionen von URLs in den Suchergebnissen ändern und die URLs möglicherweise sogar entfernt werden.

Uns ist bekannt, dass diese Änderungen verwirrend sein können. Wenn zahlreiche Websites über Links auf Ihre Website verweisen, fügen wir Ihre Website wahrscheinlich beim nächsten Crawling wieder hinzu. Wir können zwar nicht garantieren, dass eine bestimmte Seite ständig in unserem Index enthalten ist oder eine bestimmte Platzierung innehat, jedoch bieten unsere Richtlinien für Webmaster hilfreiche Tipps, wie Ihre Website gut von unseren Crawlern durchsucht werden kann. Bei Berücksichtigung dieser Empfehlungen erhöhen sich die Chancen, dass Ihre Website kontinuierlich in unseren Suchergebnissen enthalten ist.

Erscheint Ihre Website nicht in den Google-Suchergebnissen oder schneidet sie schlechter ab als zuvor, führen Sie zur Identifizierung möglicher Ursachen und zur Fehlerbehebung die folgenden Schritte aus.

Präsenz Ihrer Website im Google-Index prüfen

  • Führen Sie eine Suche mittels "site:" durch.

    Wenn uns Webmaster schreiben, dass ihre Website aus unseren Suchergebnissen herausgefallen ist, stellen wir oft fest, dass sie immer noch enthalten ist. Führen Sie einfach eine Google-Suche nach der Website mit der vollständigen URL durch. So lässt sich feststellen, ob Ihre Website noch in unserem Index enthalten ist. Bei einer Suche nach site:google.com erhalten Sie beispielsweise die folgenden Ergebnisse: http://www.google.com/search?num=100&q=site:google.com Beachten Sie, dass sich zwischen dem Operator site: und Ihrem Domain-Namen kein Leerzeichen befinden darf.

    Wird Ihre Website bei einer Google-Website-Suche nach der URL angezeigt, ist sie in unserem Index enthalten.

    Wurde Ihre Website aus dem Google-Index entfernt, obwohl sie zuvor indexiert war, ist dies möglicherweise auf einen Verstoß gegen die Richtlinien für Webmaster zurückzuführen. Lesen Sie die Richtlinien und reichen Sie nach der Fehlerbehebung einen Antrag auf erneute Überprüfung ein.

  • Überprüfen Sie, ob Ihre Website bei einer Suche nach dem Domainnamen in den Suchergebnissen erscheint.

    Führen Sie eine Google-Suche nach www.[ihredomain].de durch. Wird Ihre Website nicht in den Suchergebnissen angezeigt oder weist sie ein eher schlechtes Ranking auf, liegt dies möglicherweise an einem Verstoß der Website gegen die Richtlinien für Webmaster. Falls wir bestimmte Probleme mit Ihrer Website feststellen, beispielsweise Malware, werden Sie von uns über das Nachrichten-Center informiert. Darüber hinaus empfehlen wir Ihnen, Ihre Website anhand der Richtlinien für Webmaster zu überprüfen. Sobald Sie alle Probleme behoben haben, können Sie einen Antrag auf erneute Überprüfung einreichen.

  • Benachrichtigen Sie uns über neue Inhalte.

    Sollte Ihre Website neu sein, ist sie uns unter Umständen noch nicht bekannt. Informieren Sie Google über Ihre Website. Sie können das Erkennen von neuen Seiten durch Google beschleunigen, indem Sie eine Sitemap einreichen. Selbst wenn Ihre Website bereits indexiert ist, können Sie mithilfe von Sitemaps die aus Ihrer Sicht wichtigsten Seiten angeben.

Überprüfen, ob Ihre Website von einer manuellen Spam-Maßnahme betroffen ist

  • Rufen Sie die Seite "Manuelle Maßnahmen" auf.

    Google setzt automatischen Systeme ein, um Webseiten zu crawlen, zu indexieren und zu bedienen. Bei Bedarf wenden wir jedoch auch manuelle Maßnahmen an, um die Qualität unserer Suchergebnisse zu sichern. Wenn Ihre Website Spam enthält oder auf andere Weise gegen die Richtlinien für Webmaster verstößt, ergreift Google unter Umständen manuelle Maßnahmen, um die Website in unseren Suchergebnissen abzuwerten oder ganz daraus zu entfernen. Sollte Ihre Website aufgrund einer manuellen Spam-Maßnahme ein niedrigeres Ranking in den Suchergebnissen erhalten, werden Sie darüber auf der Seite Manuelle Maßnahmen in den Webmaster-Tools informiert. Um diese Daten zu sehen, müssen Sie Ihre Website hinzugefügt und bestätigt haben. Um diese Daten zu sehen, müssen Sie Ihre Website hinzugefügt und bestätigt haben.

Sicherstellen, dass Google Ihre Website finden und crawlen kann

Als Crawling wird der Prozess bezeichnet, durch den der Googlebot neue und aktualisierte Seiten ermittelt und diese dem Google-Index hinzufügt. Der Crawling-Prozess beginnt mit einer Liste von Webseiten-URLs, die aus vorhergehenden Crawling-Prozessen generiert und mit den von den Webmastern bereitgestellten Sitemap-Daten vervollständigt wurde. Beim Besuch auf diesen Websites erkennt der Googlebot Links auf jeder Seite und fügt sie zur Liste der zu crawlenden Seiten hinzu. Neue Websites, Änderungen an bestehenden Websites und veraltete Links werden ermittelt und zur Aktualisierung des Google-Indexes verwendet.

  • Achten Sie auf Crawling-Fehler. Die Seite Crawling-Fehler in den Webmaster-Tools enthält Informationen über die URLs auf Ihrer Website, die gecrawlt werden sollten, aber nicht zugänglich waren. Überprüfen Sie diese Fehler und korrigieren Sie sie, falls möglich. Beim nächsten Crawlen Ihrer Website durch den Googlebot werden die Änderungen ermittelt und der Google-Index wird entsprechend aktualisiert.
  • Überprüfen Sie Ihre robots.txt-Datei. Mit dem robots.txt-Analyse-Tool können Sie Ihre robots.txt-Datei daraufhin analysieren, ob Sie URLs oder Verzeichnisse auf Ihrer Website für den Googlebot blockiert haben.
  • Stellen Sie sicher, dass die URLs nicht mit Meta-Tags blockiert werden.
  • Überprüfen Sie die Struktur Ihrer Website und stellen Sie den problemlosen Zugriff darauf sicher. Die meisten Suchmaschinen sind textbasiert. Sofern die Navigation oder Links mit JavaScript, DHTML, Bildern oder Rich Media-Formaten wie Silverlight erstellt wurden, können Googlebot und andere Spider Ihre Website nicht einwandfrei crawlen.
  • Falls Sie Ihre Website kürzlich umstrukturiert haben oder über eine neue Domain verfügen, erzielen Seiten mit bisher guten Leistungen möglicherweise nun eher schlechte Ränge. Dies lässt sich vermeiden. Leiten Sie dazu Ihre Nutzer, den Googlebot und andere Spider über 301-Weiterleitungen ("RedirectPermanent") in der Datei "*.htaccess" zur neuen Domain weiter. Bei Apache nehmen Sie diese Weiterleitung über eine ".htaccess"-Datei vor, bei IIS über die Verwaltungskonsole. Weitere Informationen zu 301-HTTP-Weiterleitungen erhalten Sie unter http://www.ietf.org/rfc/rfc2616.txt.
  • Ziehen Sie das Erstellen und Einreichen einer XML-Sitemap in Betracht. Selbst wenn Ihre Website bereits indexiert ist, können Sie Google mithilfe von XML-Sitemaps über Ihre Website informieren und die für Sie wichtigsten URLs angeben. Im Fall von Websites mit dynamischem Content bzw. Content, der nicht ohne Probleme vom Googlebot gefunden werden kann, sind Sitemaps besonders hilfreich. Dies gilt auch für Websites, auf die noch nicht so viele Links verweisen.

Sicherstellen, dass Google Ihre Website indexieren kann

Der Googlebot verarbeitet jede der gecrawlten Seiten und kompiliert einen umfangreichen Index aller Wörter, die auf den Seiten ermittelt wurden, sowie deren Position auf den einzelnen Seiten. Zusätzlich werden die Informationen in wichtigen Content-Tags und -Attributen wie Title-Tags und ALT-Attributen verarbeitet. Google kann zahlreiche Content-Typen verarbeiten. Wir können HTML-, PDF- und Flash-Dateien verarbeiten, die Verarbeitung von anderen Rich Media-Formaten wie Silverlight ist allerdings aufwändiger (beispielsweise das Crawlen und Indizieren).

  • Prüfen Sie die Index-Statistik Ihrer Website. Diese Statistiken zeigen, wie Ihre Seiten im Google-Index vertreten sind.
  • Überprüfen Sie die Struktur Ihrer Website. Google ist wie die meisten Suchmaschinen textbasiert. Folglich kann Googlebot Text in Bildern oder in den meisten Rich Media-Dateien mit Ausnahme von Flash-Dateien nicht lesen. Dies gilt zudem für Text auf Seiten, die auf JavaScript basieren oder für die eine Anmeldung erforderlich ist. Stellen Sie daher sicher, dass Ihr Inhalt textbasiert und lesbar ist, um Nutzern und dem Googlebot den Zugriff darauf zu erleichtern.

Sicherstellen, dass der Content nützlich und relevant ist

  • Auf der Seite Suchanfragen lässt sich ermitteln, wie Nutzer auf Ihre Website gelangen. Die erste Spalte enthält die Google-Suchanfragen, bei denen Ihre Website am häufigsten erscheint. Außerdem werden auf der Seite die Anzahl der Impressionen und der Klicks sowie die CTR (Klickrate) für die einzelnen Suchanfragen angezeigt. Diese Angaben sind äußerst hilfreich, denn Sie verschaffen Ihnen einen Eindruck davon, wonach die Nutzer suchen (Suchanfrage) und bei welchen Suchanfragen sie am häufigsten auf Ihre Website klicken. Angenommen, Ihre Website wird häufig angezeigt, wenn in Google nach Espressozubehör und Kaffeezubehör gesucht wird. Falls die CTR Ihrer Website für letztere Suchanfrage jedoch gering ist, könnte dies daran liegen, dass für die Nutzer nicht klar ersichtlich ist, dass Ihre Website Informationen zu Kaffeezubehör enthält. Überarbeiten Sie in diesem Fall den Content und gestalten Sie ihn ansprechender und aussagekräftiger. Vermeiden Sie aber überflüssige Keywords auf Ihrer Website. Andernfalls werden möglicherweise das Ranking und die Nutzerfreundlichkeit Ihrer Website beeinträchtigt.
  • Ermitteln Sie, wie Google Ihre Website sieht. Die Seite Content-Keywords enthält die Suchbegriffe und Wortgruppen, die auf anderen Websites für die Verknüpfung zu Ihrer Website verwendet werden. Wenn Sie wissen, wie Nutzer Ihre Website sehen, können Sie die Ausrichtung auf Ihre Zielgruppe optimieren.
  • Lesen Sie die Seite HTML-Verbesserungen in den Webmaster-Tools. Beschreibende Informationen in Titel-Tags und Meta-Beschreibungen geben uns Aufschluss über den Content Ihrer Website. Außerdem lässt sich dieser Text in den Suchergebnisseiten anzeigen. Dies kann sich als nützlich erweisen, da auf beschreibenden Text mit größerer Wahrscheinlichkeit geklickt wird.
  • Informieren Sie Nutzer weltweit über Ihre Website. Anhand von auf Ihre Website verweisenden Links ermittelt Google die Relevanz der Website für die Suchanfrage eines Nutzers. Natürliche Links zu Ihrer Website ergeben sich aus der Dynamik des Webs, wenn die Inhaber anderer Websites den Inhalt Ihrer Website für relevant und hilfreich für ihre Nutzer erachten.
  • Prüfen Sie, ob irgendein Teil Ihres Contents als Content für Erwachsene markiert wurde, indem Sie SafeSearch deaktivieren. Google SafeSearch filtert Websites mit pornografischem oder eindeutig sexuellem Content aus Ihren Suchergebnissen. SafeSearch nutzt eine fortschrittliche Technologie, die Keywords und Wortgruppen, URLs und Open Directory-Kategorien prüft, aber kein Filter bietet absolute Sicherheit.
  • Ein großartiger Bild-Content kann eine exzellente Möglichkeit sein, Aufrufe Ihrer Website zu generieren. Wir empfehlen, dass Sie bei der Veröffentlichung von Bildern darüber nachdenken, wie diese dem Nutzer am hilfreichsten sein können. Befolgen Sie darüber hinaus unsere Richtlinien für Bilder.

Mitbewerber haben praktisch keine Möglichkeit, Ihr Ranking negativ zu beeinflussen oder Ihre Website aus dem Index zu entfernen. Wenn Ihnen der Link von einer anderen Website zu Ihrer eigenen Website Sorgen bereitet, sollten Sie sich mit dem Webmaster der entsprechenden Website in Verbindung setzen. Google erfasst und ordnet Informationen, die im Web veröffentlicht wurden. Wir haben aber keinen Einfluss auf die Inhalte dieser Seiten.

Schwankungen bei den Suchergebnissen sind gelegentlich auch auf Unterschiede zwischen unseren Datenzentren zurückzuführen. Beim Durchführen einer Google-Suche wird Ihre Suchanfrage an ein Datenzentrum gesendet, über das die Suchergebnisse abgerufen werden. Es gibt viele Rechenzentren und viele Faktoren, wie beispielsweise die geografische Lage und der Suchverkehr, bestimmen, an welches Rechenzentrum eine Anfrage gesendet wird. Da nicht alle unsere Rechenzentren gleichzeitig aktualisiert werden, ist es möglich, dass geringfügig unterschiedliche Suchergebnisse angezeigt werden, je nachdem, in welchem Rechenzentrum eine Anfrage bearbeitet wird.