किसी डायनामिक विज्ञापन समूह कैंपेन में क्रॉल न कर सकने वाले लैंडिंग पेज की समस्या का हल करें

चरण 1: क्रॉल न कर सकने वाले यूआरएल को खोजें

क्रॉल न कर सकने वाले पेज आपके डायनामिक सर्च विज्ञापनों पर 3 तरीकों से असर डाल सकते हैं:

  • अगर आप अपने टारगेटिंग प्रकार के लिए यूआरएल-Equals को चुनते हैं और आपका यूआरएल क्रॉल नहीं कर सकता है, तो आपको अपने डायनामिक विज्ञापन टारगेट पर “अस्वीकार किया गया: पेज को क्रॉल नहीं किया जा सकता” की स्थिति दिखाई देगी. 
  • अगर आप पेज फ़ीड का इस्तेमाल करते हैं आपकी फ़ीड के यूआरएल को क्रॉल नहीं किया जा सकता, तो शेयर की गई लाइब्रेरी के यूआरएल की लाइन पर आपको स्थिति दिखाई देगी, “अस्वीकार किया गया: पेज को क्रॉल नहीं किया जा सकता"
  • अगर आप किसी दूसरे टारगेटिंग के तरीके का इस्तेमाल करते हैं और यूआरएल क्रॉल नहीं हो रहा या उसे क्रॉल नहीं किया जा सकता, तो Google Ads को इसके बारे में जानकारी नहीं मिलेगी, इसलिए कोई गड़बड़ी का मैसेज डिसप्ले नहीं होगा. जिस यूआरएल को आप टारगेट करने की कोशिश कर रहे हैं, अगर उसको ट्रैफ़िक नहीं मिल रहा है तो आप URL-Equals या पेज फ़ीड समस्या का हल कर सकते हैं. यूआरएल को या तो ट्रैफ़िक मिलेगा या आपको गड़बड़ी पता चलेगी कि उसे ट्रैफ़िक क्यों नहीं मिल रहा है.

चरण 2: पक्का करें कि Google AdsBot लैंडिंग पेज को क्रॉल कर सकता है

  1. यूआरएल कॉपी करें और उसे किसी वेब ब्राउज़र के पता बार में पेस्ट करें.
  2. डोमेन नाम के आखिर में/robots.txt जोड़ें, फिर एंटर दबाएं. (उदाहरण के लिए, अगर आपका लैंडिंग पेज http://www.example.com/folder1/folder2/ है तो पता करें कि किन रोबोट को यूआरएल: http://www.example.com/robots.txt में जाकर डोमेन को क्रॉल करने की मंज़ूरी है.)
  3. User-agent: AdsBot-Google लाइन को देखें.
    • अगर यह वहां नहीं है तो उसे जोड़ने के लिए वेबमास्टर के साथ काम करें.
    • अगर पेज खाली है, तो डोमेन में robots.txt फ़ाइल जोड़ने के लिए वेबमास्टर के साथ काम करें.
    • अगर User-Agent: AdsBot-Google वहां है तो पक्का करें कि उसके बाद यह लाइन नहीं आती है जो कहती है नामंज़ूर करो: /. साथ ही पक्का करें कि फ़ाइल में कोई दूसरी लाइन AdsBot-Google को प्रतिबंधित नहीं करती है. robots.txt फ़ाइलों और Google क्रॉलर के बारे में जानकारी
  4. अगर लैंडिंग पेज एक उप डोमेन है, तो देखें कि उप डोमेन में एक अलग robots.txt फ़ाइल है या नहीं. उदाहरण के लिए, https://subdomain.example.com/dogs/robots.txt. पक्का करें कि यह robots.txt User-Agent: AdsBot-Google को भी मंज़ूरी देता है.
  5. यूआरएल का स्रोत खोलें. Chrome में, आप view-source:THE_URL खोलकर ऐसा कर सकते हैं. उदाहरण के लिए, अगर आपका लैंडिंग पेज http://www.example.com/folder1/folder2/ है तो आप view-source:http://www.example.com/folder1/folder 2/ पर नेविगेट करके पता कर सकते हैं कि किन रोबोट को डोमेन क्रॉल करने की मंज़ूरी है.)
  6. AdsBot-Google” स्ट्रिंग को सर्च करें.

लैंडिंग पेज के क्रॉल न किए जा सकने वाली दूसरी वजहें

अगर Google AdsBot को लैंडिंग पेज क्रॉल करने की मंज़ूरी है (User-Agent: AdsBot-Google को साइट की robots.txt फ़ाइल में पहले से शामिल किया गया है) तो हो सकता है कि पेज के क्रॉल न हो सकने की कोई दूसरी वजह हो:

  • लैंडिंग पेज लोड नहीं हो रहा. अगर आप पेज को किसी वेब ब्राउज़र के साथ खोलते हैं और आपको कोई गड़बड़ी दिखाई देती है (उदाहरण के लिए, 404 'नहीं मिला', साइट पर नहीं पहुंच पा रहे, आपके सेशन की समय सीमा खत्म हो गई है) तो साइट के वेबमास्टर से संपर्क करके पक्का करें कि लैंडिंग पेज किसी भी जगह, परिवेश (मोबाइल और डेस्कटॉप) या ब्राउज़र में लोड हो जाए.
  • लैंडिंग पेज में साइन इन करने की ज़रूरत है. सभी विज्ञापन लैंडिंग पेज सार्वजनिक तौर से एक्सेस करने लायक होने चाहिए. किसी दूसरे लैंडिंग पेज का इस्तेमाल करें या पेज से साइन इन की ज़रूरत को हटाने के लिए वेबमास्टर के साथ काम करें.
  • लैंडिंग पेज में बहुत ज़्यादा फ़ॉरवर्ड या रीडायरेक्ट होते हैं. लैंडिंग पेज में 10 से कम रीडायरेक्ट होने चाहिए. रीडायरेक्ट की संख्या को कम करने के लिए वेबमास्टर के साथ काम करें. वेब फ़ॉरवर्डिंग के बारे में ज़्यादा जानें

 

क्या यह उपयोगी था?

हम उसे किस तरह बेहतर बना सकते हैं?
खोजें
खोज हटाएं
खोज बंद करें
मुख्य मेन्यू
9901033602655813255
true
खोज मदद केंद्र
true
true
true
true
true
73067
false
false
false