Keine Seiteninformationen in den Suchergebnissen

Es kann passieren, dass Sie in der Google Suche ein Ergebnis mit dem Hinweis sehen, dass für eine Seite keine Informationen verfügbar sind:

Suchergebnis mit fehlendem Snippet: Für diese Seite sind keine Informationen verfügbar.

Das bedeutet, dass die betreffende Website Google zwar erlaubt, eine Seite zu sehen, aber daran hindert, eine Seitenbeschreibung zu erstellen.

Wenn Sie Inhaber dieser Website sind, haben Sie die Möglichkeit, dieses Suchergebnis zu verbessern. Dazu können Sie entweder Google erlauben, die Seite zu lesen und eine aussagekräftige Seitenbeschreibung zu erstellen, oder die Seite vollständig aus den Google-Suchergebnissen entfernen. Wie das geht, sehen Sie weiter unten.

Problem beheben

Es handelt sich nicht um meine Website

Der Seitenbetreiber hat Google untersagt, die Seite zu lesen, weshalb wir keine Seitenbeschreibung erstellen können. Leider kann Google daran nichts ändern.
Wenn Sie den Inhaber der Website kennen, informieren Sie ihn bitte und senden Sie ihm einen Link zu dieser Seite.

Es handelt sich um meine Website

Wahrscheinlich sehen Sie dieses Ergebnis aus folgendem Grund:

Die Seite wird durch robots.txt blockiert

Beschreibung

Sie haben eine Regel in der robots.txt-Datei* Ihrer Website, die Google daran hindert, die Seite zu lesen. Auf diese Weise erzeugen wir eine Beschreibung in den Suchergebnissen. Eine solche Regel verhindert jedoch nicht, dass Google die Seite in den Suchergebnissen anzeigt, sondern nur, dass sie gelesen wird. Wenn die Seite also in den Suchergebnissen erscheint, erscheint sie ohne eine Beschreibung.

* Eine robots.txt-Datei ist eine Standarddatei, mit der verhindert wird, dass Suchmaschinen bestimmte Seiten auf der entsprechenden Website crawlen. Einige Website-Hosting-Services erstellen diese Datei automatisch für ihre Kunden. Im nächsten Abschnitt erfahren Sie, wie Sie prüfen können, ob diese Datei vorhanden und der Grund für das Problem ist.

Problem bestätigen

Wenn Sie Ihre Website in der Search Console bestätigt haben, können Sie mit dem robots.txt-Tester prüfen, ob eine Seite für Google blockiert wird:

  1. Öffnen Sie den robots.txt-Tester für Ihre Website.
  2. Geben Sie die URL der Seite ein, für die es keine Beschreibung gibt. Lassen Sie das URL-Präfix weg, das neben dem Textfeld für die URL zu sehen ist.
  3. Klicken Sie auf Testen.
  4. Mit dem Test sollten Sie die robots.txt-Regel ermitteln können, die verhindert, dass Google auf Ihre Seite zugreift. Lesen Sie die nächsten Schritte, um das Problem zu beheben.

Problem beheben

Sie können das Problem durch eine der folgenden Maßnahmen beheben:

Option 1: Lassen Sie Google Ihre Seite lesen

Wenn Sie möchten, dass Ihre Seite mit einer aussagekräftigen Beschreibung in den Suchergebnissen erscheint, müssen Sie Google erlauben, die Seite zu lesen. Entfernen oder ändern Sie dazu die robots.txt-Regel, die Google blockiert.

  1. Suchen Sie die Regel, die Google blockiert, wie oben unter Problem bestätigen beschrieben.
  2. Entfernen Sie die Regel oder aktualisieren Sie sie unter Verwendung der robots.txt-Syntax.
    Wenn Sie einen Website-Hosting-Dienst nutzen, etwa Wix, Joomla oder Drupal, können wir keine konkreten Hinweise zum Aktualisieren Ihrer robots-Datei geben, da sie bei jedem Hosting-Dienst anders verwaltet wird Entnehmen Sie deshalb am besten der Dokumentation Ihres Anbieters, wie Sie die Blockierung Ihrer Seite oder Website für Google aufheben. Recherchieren Sie diese Informationen mit einem Such-String wie beispielsweise „robots.txt Name_des_Anbieters“ oder „Blockierung der Seite für Google aufheben Name_des_Anbieters“. Beispiel: robots.txt Wix

Option 2: Blockieren Sie die Seite für Google vollständig

Gehen Sie so vor, damit die Seite gar nicht mehr in den Google-Suchergebnissen erscheint:

  1. Blockieren Sie Ihre Seite mit einer der folgenden Maßnahmen:
    • Die Seite von Ihrer Website entfernen
    • Eine erforderliche Nutzeranmeldung zum Zugriff auf die Seite einrichten
    • „noindex“ auf der Seite verwenden. Falls Sie sich hierfür entscheiden, müssen Sie auch die robots.txt-Regel entfernen, die die Seite in den Suchmaschinen blockiert. Das klingt zwar etwas seltsam, aber wir müssen in der Lage sein, die Seite zu lesen, damit wir Ihre „noindex“-Anweisung überhaupt sehen können. Informationen zur robots.txt-Datei
  2. Informieren Sie Google mithilfe des Tools „Veraltete Inhalte entfernen“ über die Änderung. Dadurch werden alle gespeicherten Kopien der Seite schnell aus den Suchergebnissen entfernt. Kopieren Sie die URL aus den Suchergebnissen in das Tool.
War das hilfreich?
Wie können wir die Seite verbessern?
true
Neu bei der Search Console?

Sie haben die Search Console noch nie verwendet? Egal, ob Sie Anfänger, SEO-Experte oder Website-Entwickler sind: Beginnen Sie hier.

Suche
Suche löschen
Suche schließen
Google-Apps
Hauptmenü
Suchen in der Hilfe
true
83844
false