A robots.txt jelentés

Annak ellenőrzése, hogy a Google fel tudja-e dolgozni a robots.txt fájlokat

A robots.txt jelentés megmutatja, hogy a Google milyen robots.txt fájlokat talált a webhely 20 vezető gazdagépéhez, mikor végezte el a legutóbbi feltérképezést, illetve milyen figyelmeztetéseket és hibákat észlelt. A jelentés emellett lehetővé teszi a robots.txt fájl újbóli feltérképezésének kérelmezését is vészhelyzet esetén.

A robots.txt fájl segítségével megakadályozhatja, hogy a keresőmotorok feltérképezzék a webhelyet. Használja a noindex címkét, ha nem szeretné, hogy a tartalom megjelenjen a keresési találatok között.

Ez a jelentés csak a domainszintű tulajdonok esetén áll rendelkezésre. Ez a következőket jelentheti:

Robots.txt jelentés megnyitása

 

A robots.txt fájlok és a feltérképezési állapot megtekintése

Domaintulajdon esetében jelentés az adott tulajdon 20 vezető gazdagépének robots.txt fájljait tartalmazza.

A Search Console által ellenőrzött összes robots.txt fájllal kapcsolatban a következő információk láthatók:

  • Fájl útvonala: A teljes URL, ahol a Google ellenőrizte, hogy jelen van-e a robots.txt fájl. Az URL-ek csak akkor jelennek meg a jelentésben, ha az elmúlt 30 nap során bármikor „Lekérve” vagy „Nem lett lekérve” volt az állapotuk. Lásd: A robots.txt fájlok helye.
  • Lekérés állapota: A fájl legutóbbi lekérési kérelmének állapota. A következő értékek szerepelhetnek itt:
    • Nem lett lekérve – Nem található (404): 404-es (a fájl nem létezik) hiba történt a fájl lekérésekor. Ha közzétett egy robots.txt fájlt a megadott URL-en, mégis ezt a hibát látja, ellenőrizze az URL-t, hogy van-e valamilyen rendelkezésre állási probléma. Ha egy fájl állapota 30 napig Nem található (404), akkor többé nem jelenik meg a jelentésben (bár a Google továbbra is ellenőrzi a háttérben). Ha nincs robots.txt fájl, az jó, és azt jelenti, hogy a Google fel tudja térképezni a webhely összes URL-jét, de ha szeretné látni a teljes képet, tájékozódjon arról, hogy miként viselkedik a Google robots.txt-hiba esetén.
    • Nem lett lekérve – Bármilyen más ok: Valamilyen más probléma történt a fájl lekérésekor. Lásd: Indexelési problémák listája.
    • Lekérve: A legutóbbi feltérképezési kísérlet sikeresen visszaadott egy robots.txt fájlt. A fájl elemzése során talált problémák a Problémák oszlopban jelennek meg. A Google figyelmen kívül hagyja a problémákat tartalmazó sorokat, és azokat használja, amelyeket tud elemezni.
  • Ellenőrzés időpontja: Mikor próbálta meg utoljára feltérképezni az URL-t a Google (helyi idő szerint).
  • Méret: A lekért fájl mérete bájtban. Ha a legutóbbi lekérési kísérlet nem sikerült, ez a mező üres marad.
  • Problémák: A táblázatban látható, hogy hány elemzési probléma merült fel a fájl tartalmában a legutóbbi lekéréskor. A hibák megakadályozzák a szabályok használatát. A figyelmeztetések nem akadályozzák meg a szabályok használatát. Tájékozódjon arról, hogy miként viselkedik a Google a robots.txt fájllal kapcsolatos hiba esetén. Az elemzési problémák megoldásához használjon robots.txt-érvényesítő eszközt.

A legutóbb lekért verzió megtekintése

A robots.txt fájl legutóbb lekért verzióját úgy tekintheti meg, hogy rákattint a jelentés fájllistájában. Ha a robots.txt fájlban hibák vagy figyelmeztetések vannak, ezek kiemelve jelennek meg a megjelenített fájltartalomban. A nyílbillentyűkkel lépkedhet a hibák és a figyelmeztetések között.

A korábban lekért verziók megtekintése

Ha szeretné megtekinteni az adott robots.txt fájl lekérési kérelmeit az elmúlt 30 napból, kattintson a fájlra a jelentés fájllistájában, majd kattintson a Verziók lehetőségre. Az adott verziójú fájl tartalmának megtekintéséhez kattintson a verzióra. Egy kérelem csak akkor szerepel az előzményekben, ha a lekért fájl vagy a lekérés eredménye eltér az előző fájllekérési kérelemhez képest.

Újbóli feltérképezés kérése

Amikor kijavít egy hibát, vagy ha fontos módosítást hajt végre, kérheti a robots.txt fájl újbóli feltérképezését.

Mikor érdemes újrafeltérképezést kérni?

Általában nem szükséges a robots.txt fájl újbóli feltérképezését kérni, mert a Google gyakran feltérképezi a robots.txt fájlokat. A következő esetekben azonban érdemes lehet kérni a robots.txt fájl újrafeltérképezését:

  • Módosította a robots.txt szabályait, hogy feloldja néhány fontos URL letiltását, és szeretné gyorsan értesíteni a Google-t (vegye figyelembe, hogy ez nem garantálja a feloldott URL-ek azonnali feltérképezését).
  • Kijavított egy lekérési hibát vagy más kritikus hibát.

Újbóli feltérképezés kérése

Ha újrafeltérképezést szeretne kérni, a robots.txt fájlok listájában kattintson a fájl melletti További beállítások ikonra, majd kattintson az Újbóli feltérképezés kérése elemre.

Webhelytároló szolgáltatásokban lévő webhelyek

Ha a webhelyét egy webhelytároló szolgáltatásban tárolja, akkor nem biztos, hogy egyszerűen tudja szerkeszteni a robots.txt fájlt. Ebben az esetben tekintse át a webhelyszolgáltató dokumentációját arról, hogyan tilthatja le adott oldalak Google általi feltérképezését vagy indexelését.

A legtöbb felhasználó nem azt akarja megakadályozni, hogy a Google feltérképezze a fájlokat, hanem azt, hogy megjelenjenek a Google Keresőben. Ha Önnek is ez a célja, nézzen utána a tárhelyszolgáltatónál annak, hogyan tilthatja le a weboldalakat a keresőmotorok elől.

A robots.txt fájlok helye

Terminológia:

  • Protokoll: (Más néven séma) lehet HTTP vagy HTTPS.
  • Gazdagép: Az URL-ben a protokolltól (http:// vagy https://) az útvonalig terjedő teljes tartalom. Az m.de.example.com gazdagép például három lehetséges gazdagépet jelent: m.de.example.com, de.example.com és example.com, melyek mindegyikének saját robots.txt fájlja lehet.
  • Eredet: A protokoll és a gazdagép együttesen. Tehát például: https://example.com/ vagy https://m.example.co.es/

Az RFC 9309 szabvány szerint a robots.txt fájlnak a webhely minden protokoll- és gazdagép-kombinációjának a gyökerében kell lennie.

Domaintulajdon esetén:

  1. A Search Console a 20 vezető gazdagépet választja ki, és a feltérképezési gyakoriság szerint rendezi őket. A jelentés minden domain esetén legfeljebb két eredetet jelenít meg, ami azt jelenti, hogy a táblázat legfeljebb 40 sort tartalmazhat. Ha nem találja az egyik gazdagéphez tartozó robots.txt URL-t, hozzon létre egy domaintulajdont a hiányzó aldomain számára.
  2. A Search Console minden gazdagép esetében két URL-t ellenőriz:
    • http://<host>/robots.txt
    • https://<host>/robots.txt
  3. Ha a kért URL-en lévő robots.txt fájl 30 napig Nem található állapotú, akkor a Search Console nem jeleníti meg az URL-t ebben a jelentésben, de a Google továbbra is ellenőrizni fogja az URL-t a háttérben. Minden más eredmény esetén az ellenőrzött URL megjelenik a jelentésben.

URL-előtaggal rendelkező tulajdon esetében a gazdagép szintjén (pl. https://example.com/) a Search Console csak az adott tulajdon egyetlen eredetét ellenőrzi. Ez azt jelenti, hogy a https://example.com tulajdon esetében a Search Console csak a https://example.com/robots.txt oldalt ellenőrzi, a http://example.com/robots.txt vagy a https://m.example.com/robots.txt fájlt nem.

Általános feladatok

A robots.txt fájl megtekintése

A jelentésben szereplő valamelyik robots.txt fájl megnyitásához kattintson a fájlra a robots.txt fájlok listájában. A fájl böngészőben való megnyitásához kattintson az Élő robots.txt megnyitása lehetőségre.

Bármelyik robots.txt fájlt megnyithatja az interneten a böngészőjében. Alább megtudhatja, melyik URL-t érdemes felkeresni.

Hol lehetnek a robots.txt fájlok?

A robots.txt fájl a protokoll és a domain gyökerében található. Az URL meghatározásához egy fájl URL-jében töröljön mindent a gazdagép (és az opcionális port) után, és adja hozzá a „/robots.txt” szöveget. Nyissa meg a robots.txt fájlt a böngészőben, ha van. A robots.txt fájlokat nem öröklik az aldomainek és a fölérendelt domainek, és egy adott oldalra csak egyetlen robots.txt fájl lehet hatással. Néhány példa:

Fájl URL-címe Olyan robots.txt URL-címe, amely hatással lehet az adott fájlra
http://example.com/home http://example.com/robots.txt
https://m.de.example.com/some/page/here/mypage https://m.de.example.com/robots.txt
https://example.com?pageid=234#myanchor https://example.com/robots.txt
https://images.example.com/flowers/daffodil.png https://images.example.com/robots.txt

Annak megtekintése, hogy melyik robots.txt fájl érvényes egy oldalra vagy képre

Egy oldalt vagy képet érintő robots.txt fájl URL-jének megkeresése:

  1. Keresse meg az oldal vagy kép pontos URL-címét. Kép esetén kattintson a képre a jobb egérgombbal a Google Chrome böngészőben, és válassza a Kép URL-jének másolása lehetőséget.
  2. Távolítsa el az URL-nek a legfelső szintű domain (pl. .com, .org, .co.il) utáni részét, és adja hozzá a /robots.txt karakterláncot a végéhez. Tehát a https://images.example.com/flowers/daffodil.png robots.txt fájlja a https://images.example.com/robots.txt.
  3. Nyissa meg az URL-t a böngészőben, hogy ellenőrizze, létezik-e a robots.txt fájl. Ha a böngésző nem tudja megnyitni a fájlt, akkor nem létezik.

Annak tesztelése, hogy a robots.txt letiltja-e a Google-t

További információ

Hasznosnak találta?

Hogyan fejleszthetnénk?

További segítségre van szüksége?

Próbálja ki a következő lépéseket:

Keresés
Keresés törlése
A keresés bezárása
Főmenü
1044987275596350302
true
Keresés a Súgóoldalakon
false
true
true
true
true
true
83844
false
false
false
false