Darauf achten, dass der Googlebot nicht blockiert wird

Wenn der Zugriff des Googlebots auf eine Website blockiert wird, kann ihr Inhalt eventuell nicht mehr richtig durch den Googlebot gecrawlt und indexiert werden. Dies wiederum kann zu einem Ranking-Verlust in den Suchergebnissen von Google führen. Leider blockieren viele Webmaster versehentlich den Zugriff des Googlebot auf ihre Website. Oft ist ihnen das gar nicht bewusst, denn der Googlebot muss auf eine Website zugreifen können, um die Anweisungen in der zugehörigen robots.txt-Datei zu finden und zu berücksichtigen.

Wenn Google dieses Problem erkennt, benachrichtigen wir Sie unter Umständen, dass der Googlebot blockiert wird.

Im Statusbericht zur Indexabdeckung sind alle blockierten Seiten Ihrer Website aufgeführt. Mit dem URL-Prüftool können Sie darüber hinaus einzelne Seiten testen.

War das hilfreich?
Wie können wir die Seite verbessern?