चरण 1: क्रॉल न कर सकने वाले यूआरएल को खोजें
क्रॉल न कर सकने वाले पेज आपके डायनामिक सर्च विज्ञापनों पर 3 तरीकों से असर डाल सकते हैं:
- अगर आप अपने टारगेटिंग प्रकार के लिए
यूआरएल-Equals
को चुनते हैं और आपका यूआरएल क्रॉल नहीं कर सकता है, तो आपको अपने डायनामिक विज्ञापन टारगेट पर “अस्वीकार किया गया: पेज को क्रॉल नहीं किया जा सकता” की स्थिति दिखाई देगी. - अगर आप पेज फ़ीड का इस्तेमाल करते हैं आपकी फ़ीड के यूआरएल को क्रॉल नहीं किया जा सकता, तो शेयर की गई लाइब्रेरी के यूआरएल की लाइन पर आपको स्थिति दिखाई देगी, “अस्वीकार किया गया: पेज को क्रॉल नहीं किया जा सकता"
- अगर आप किसी दूसरे टारगेटिंग के तरीके का इस्तेमाल करते हैं और यूआरएल क्रॉल नहीं हो रहा या उसे क्रॉल नहीं किया जा सकता, तो Google Ads को इसके बारे में जानकारी नहीं मिलेगी, इसलिए कोई गड़बड़ी का मैसेज डिसप्ले नहीं होगा. जिस यूआरएल को आप टारगेट करने की कोशिश कर रहे हैं, अगर उसको ट्रैफ़िक नहीं मिल रहा है तो आप
URL-Equals
या पेज फ़ीड समस्या का हल कर सकते हैं. यूआरएल को या तो ट्रैफ़िक मिलेगा या आपको गड़बड़ी पता चलेगी कि उसे ट्रैफ़िक क्यों नहीं मिल रहा है.
चरण 2: पक्का करें कि Google AdsBot लैंडिंग पेज को क्रॉल कर सकता है
- यूआरएल कॉपी करें और उसे किसी वेब ब्राउज़र के पता बार में पेस्ट करें.
- डोमेन नाम के आखिर में
/robots.txt
जोड़ें, फिर एंटर दबाएं. (उदाहरण के लिए, अगर आपका लैंडिंग पेजhttp://www.example.com/folder1/folder2/
है तो पता करें कि किन रोबोट को यूआरएल:http://www.example.com/robots.txt
में जाकर डोमेन को क्रॉल करने की मंज़ूरी है.) User-agent: AdsBot-Google
लाइन को देखें.- अगर यह वहां नहीं है तो उसे जोड़ने के लिए वेबमास्टर के साथ काम करें.
- अगर पेज खाली है, तो डोमेन में
robots.txt
फ़ाइल जोड़ने के लिए वेबमास्टर के साथ काम करें. - अगर
User-Agent: AdsBot-Google
वहां है तो पक्का करें कि उसके बाद यह लाइन नहीं आती है जो कहती हैनामंज़ूर करो: /
. साथ ही पक्का करें कि फ़ाइल में कोई दूसरी लाइन AdsBot-Google को प्रतिबंधित नहीं करती है.robots.txt
फ़ाइलों और Google क्रॉलर के बारे में जानकारी
- अगर लैंडिंग पेज एक उप डोमेन है, तो देखें कि उप डोमेन में एक अलग
robots.txt
फ़ाइल है या नहीं. उदाहरण के लिए, https://subdomain.example.com/dogs/robots.txt
. पक्का करें कि यहrobots.txt
User-Agent: AdsBot-Google
को भी मंज़ूरी देता है. - यूआरएल का स्रोत खोलें. Chrome में, आप
view-source:THE_URL
खोलकर ऐसा कर सकते हैं. उदाहरण के लिए, अगर आपका लैंडिंग पेजhttp://www.example.com/folder1/folder2/
है तो आपview-source:http://www.example.com/folder1/folder 2/
पर नेविगेट करके पता कर सकते हैं कि किन रोबोट को डोमेन क्रॉल करने की मंज़ूरी है.) - “
AdsBot-Google
” स्ट्रिंग को सर्च करें.- अगर वह वहां नहीं है तो यह समस्या का स्रोत नहीं है.
- अगर स्ट्रिंग
<meta name="AdsBot-Google" content="noindex" />
जैसे किसी टैग में है तो इसे हटाने के लिए अपने वेबमास्टर के साथ काम करें. ऐसे मेटा टैग के बारे में ज़्यादा जानें, जिन्हें Google समझता है
लैंडिंग पेज के क्रॉल न किए जा सकने वाली दूसरी वजहें
अगर Google AdsBot को लैंडिंग पेज क्रॉल करने की मंज़ूरी है (User-Agent: AdsBot-Google
को साइट की robots.txt
फ़ाइल में पहले से शामिल किया गया है) तो हो सकता है कि पेज के क्रॉल न हो सकने की कोई दूसरी वजह हो:
- लैंडिंग पेज लोड नहीं हो रहा. अगर आप पेज को किसी वेब ब्राउज़र के साथ खोलते हैं और आपको कोई गड़बड़ी दिखाई देती है (उदाहरण के लिए, 404 'नहीं मिला', साइट पर नहीं पहुंच पा रहे, आपके सेशन की समय सीमा खत्म हो गई है) तो साइट के वेबमास्टर से संपर्क करके पक्का करें कि लैंडिंग पेज किसी भी जगह, परिवेश (मोबाइल और डेस्कटॉप) या ब्राउज़र में लोड हो जाए.
- लैंडिंग पेज में साइन इन करने की ज़रूरत है. सभी विज्ञापन लैंडिंग पेज सार्वजनिक तौर से एक्सेस करने लायक होने चाहिए. किसी दूसरे लैंडिंग पेज का इस्तेमाल करें या पेज से साइन इन की ज़रूरत को हटाने के लिए वेबमास्टर के साथ काम करें.
- लैंडिंग पेज में बहुत ज़्यादा फ़ॉरवर्ड या रीडायरेक्ट होते हैं. लैंडिंग पेज में 10 से कम रीडायरेक्ट होने चाहिए. रीडायरेक्ट की संख्या को कम करने के लिए वेबमास्टर के साथ काम करें. वेब फ़ॉरवर्डिंग के बारे में ज़्यादा जानें