Wir sind jetzt auf LinkedIn: Folgen Sie uns auf LinkedIn, um Neuigkeiten und Ressourcen der Google Suche dazu zu erhalten, wie Sie Ihre Website auffindbar machen können.
bookmark_borderbookmark
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Wenn du die Regeln in einer bestehenden robots.txt-Datei aktualisieren möchtest, lade eine Kopie der robots.txt-Datei von deiner Website herunter und nimm die erforderlichen Änderungen vor.
robots.txt-Datei herunterladen
Du kannst die robots.txt-Datei auf verschiedene Weise herunterladen, zum Beispiel mit einer der folgenden Methoden:
Rufe die robots.txt-Datei auf, z. B. https://example.com/robots.txt, und kopiere ihren Inhalt in eine neue Textdatei auf dem Computer. Folge beim Erstellen der neuen lokalen Datei den Richtlinien für das Dateiformat.
Lade eine Kopie deiner robots.txt-Datei mit einem Tool wie cURL herunter. Beispiel:
curl https://example.com/robots.txt -o robots.txt
Verwende den robots.txt-Bericht in der Search Console, um den Inhalt deiner robots.txt-Datei zu kopieren, den du dann in eine Datei auf deinem Computer einfügen kannst.
robots.txt-Datei bearbeiten
Öffne die von deiner Website heruntergeladene robots.txt-Datei in einem Texteditor und nimm die erforderlichen Änderungen an den Regeln vor. Achte darauf, die richtige Syntax zu verwenden und die Datei mit UTF-8-Codierung zu speichern.
robots.txt-Datei hochladen
Lade die neue robots.txt-Datei in das Stammverzeichnis deiner Website als Textdatei namens robots.txt hoch. Wie du eine Datei auf deine Website hochlädst, hängt von der jeweiligen Plattform und dem Server ab. Sieh dir unsere Tipps zum Hochladen einer robots.txt-Datei auf deine Website an.
robots.txt-Cache von Google aktualisieren
Während des automatischen Crawlings bemerken die Google-Crawler Änderungen an deiner robots.txt-Datei. Die im Cache gespeicherte Version wird alle 24 Stunden aktualisiert. Wenn du den Cache schneller aktualisieren möchtest, verwende die Funktion Erneutes Crawling beantragen im robots.txt-Bericht.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-02-17 (UTC)."],[[["The robots.txt file controls which parts of your website search engines can crawl and index."],["You can edit your robots.txt file by downloading it, making changes, and uploading it back to your website's root directory."],["Website hosting services may offer alternative ways to manage search engine crawling, such as through their settings pages."],["Google automatically updates its cached version of your robots.txt file, but you can request a faster refresh using Search Console."]]],["To modify your `robots.txt` file, first download a copy using methods like direct access, cURL, or the Search Console report. Then, edit the file in a text editor, ensuring correct syntax and UTF-8 encoding. Upload the updated file to your site's root directory, typically named `robots.txt`. If direct uploading is not possible, contact your domain manager. Google automatically updates its cached version every 24 hours, or you can use the robots.txt report to request faster recrawling.\n"]]