Néhány termék olyan céloldalt határoz meg (a link [link]
attribútum segítségével), amely nem térképezhető fel a Google számára, mert egy robots.txt fájl akadályozza a Google feltérképező robotját a céloldal letöltésében. Ezek a termékek elutasított állapotban maradnak, és mindaddig nem fognak megjelenni a Shopping-hirdetésekben és a díjmentes termékadatokban, amíg a céloldal feltérképezése lehetségessé nem válik.
Frissítse a webszerveren található robots.txt fájlt, hogy a Google feltérképező robotja lekérhesse az Ön által biztosított céloldalakat. A robots.txt fájl általában a webszerver gyökérkönyvtárában található (pl. http://www.example.com/robots.txt).
Ahhoz, hogy a teljes webhelyhez hozzáférjünk, gondoskodjon arról, hogy a robots.txt fájl engedélyezze mind a céloldalakhoz használatos „Googlebot”, mind pedig a képekhez használatos „Googlebot-image” felhasználói ügynöknek a webhely teljes feltérképezését.
A webhely teljes feltérképezését úgy engedélyezheti, hogy a következőképpen módosítja a robots.txt fájlt:
User-agent: Googlebot
Disallow:
User-agent: Googlebot-image
Disallow:
További információ a robots.txt konfigurálásáról itt található. Jelenlegi konfigurációját az URL-ellenőrző eszközzel tesztelheti.
Ha megoldotta ezeket a problémákat, és új táblázatfeltöltéssel vagy a Content API segítségével frissítette a termékeket, az itt megjelenő hibák várhatóan néhány napon belül eltűnnek. Ez az idő annak ellenőrzéséhez szükséges, hogy immár fel tudjuk-e térképezni a céloldalakat; ezt követően az érintett termékek ismét meg fognak jelenni a Shopping-hirdetésekben és az adatok között. Ha fel szeretné gyorsítani a folyamatot, növelheti a Google feltérképezési sebességét.