बच्चों का यौन शोषण दिखाने वाले ऑनलाइन कॉन्टेंट से जुड़े, अक्सर पूछे जाने वाले सवालों के जवाब देने की Google की कोशिश

सीएसएएम क्या है?

सीएसएएम का मतलब है, बच्चों का यौन शोषण दिखाने वाला कॉन्टेंट. इसमें ऐसा कोई भी विज़ुअल शामिल हो सकता है जिसमें नाबालिग को अश्लील यौन गतिविधि करते हुए दिखाया गया हो, जैसे कि फ़ोटो, वीडियो, और कंप्यूटर से जनरेट की गई तस्वीरें. हालांकि, इसमें इनके अलावा, और भी चीज़ें शामिल हो सकती हैं. हम मानते हैं कि सीएसएएम और बच्चों की नग्नता, दोनों एक समान नहीं हैं. यही वजह है कि हमारी नीतियों और सिस्टम को खास तौर पर तैयार किया गया है, ताकि वे सीएसएएम और बच्चों की नग्नता, दोनों की पहचान करके उनमें अंतर कर सकें. उदाहरण के लिए, बाथटब में या घर के पीछे बने आंगन में खेल रहे बच्चे की तस्वीर (जो कहीं से भी सेक्शुअल और सीएसएएम नहीं है) और बच्चों का यौन शोषण दिखाने वाली तस्वीरों या दुनिया भर में लागू कानूनों का उल्लंघन करते हुए, कामुक प्रदर्शन वाली तस्वीरों या गुप्तांगों को दिखाने वाली तस्वीरों के बीच अंतर किया जा सके. इसके अलावा, अन्य तरह की ऐसी अश्लील या यौन शोषण दिखाने वाली तस्वीरें भी हो सकती हैं जिनमें बच्चों का यौन शोषण दिखाने वाला कार्टून शामिल हो या बच्चों के यौन शोषण को मज़ाक़िया तरीके से दिखाया गया हो. इस तरह की तस्वीरों से दुनिया भर में लागू कानूनों का उल्लंघन भी हो सकता है.

सीएसएएम को रोकने के लिए Google क्या कर रहा है?

Google, इंटरनेट पर सीएसएएम को रोकने के लिए लगातार काम कर रहा है. हम पूरी कोशिश करते हैं कि हमारी सेवाओं का इस्तेमाल, इस तरह के कॉन्टेंट को बनाने, सेव करने या डिस्ट्रिब्यूट करने के लिए न किया जाए. हम इस काम के लिए टेक्नोलॉजी और लोगों, जैसे अहम संसाधनों की मदद लेते हैं और अपना पूरा समय देते हैं. इससे बच्चों के यौन शोषण से जुड़े कॉन्टेंट और व्यवहार का पता लगाने, उसे रोकने, हटाने, और उसकी शिकायत करने में मदद मिलती है. हम बच्चों और परिवारों की सुरक्षा के लिए क्या कर रहे हैं, इस बारे में Google सुरक्षा केंद्र, YouTube के कम्यूनिटी दिशा-निर्देश, बच्चों की साइट को सुरक्षित रखने की हमारी कोशिशें, और हमारा ब्लॉग पढ़ें. इनमें बताया गया है कि हम किस तरह सीएसएएम का पता लगाते हैं, उन्हें हटाते हैं, और उनकी शिकायत करते हैं.

Google अपने प्लैटफ़ॉर्म पर सीएसएएम की पहचान कैसे करता है?

हम बच्चों के ऑनलाइन यौन शोषण के ख़िलाफ़ मज़बूती से लड़ते हैं और अपने प्लैटफ़ॉर्म पर सीएसएएम का पता लगाने, उसे रोकने, और उसे हटाने के लिए टेक्नोलॉजी का इस्तेमाल करते हैं. इसमें सीएसएएम का अपने-आप पता लगाने वाली सुविधा और मैन्युअल तरीके से समीक्षा करना शामिल है. हम उपयोगकर्ताओं और तीसरे पक्षों (एनजीओ) से मिली रिपोर्ट का इस्तेमाल भी करते हैं. हम पहचाने गए सीएसएएम का पता लगाने के लिए, हैश मैचिंग का इस्तेमाल करते हैं. इसमें YouTube का CSAI Match भी शामिल है.  हम किसी नए सीएसएएम का पता लगाने के लिए, कैटगरी तय करने वाली मशीन लर्निंग टेक्नोलॉजी का इस्तेमाल करते हैं. इसके बाद, हमारे विशेषज्ञों की समीक्षा टीम से इन सीएसएएम की पुष्टि कराई जाती है. किसी नए सीएसएएम का पता लगाने से, बच्चों की सुरक्षा से जुड़े नेटवर्क को कई तरीकों से मदद मिलती है. उदाहरण के लिए, ऐसे पीड़ित बच्चों की पहचान हो पाती है जिन्हें सुरक्षा की ज़रूरत है और हैश मैच के डेटाबेस में योगदान देकर, पहचाने गए सीएसएएम का पता लगाने की हमारी क्षमताएं बेहतर होती हैं. Google ने कैटगरी तय करने वाली हमारी टेक्नोलॉजी का इस्तेमाल करके, Content Safety API बनाया है. हम यह एपीआई अन्य डेवलपर या कंपनियों को देते हैं, ताकि वे यौन शोषण वाले कॉन्टेंट का प्राथमिकता से पता लगाकर, उसकी मैन्युअल तरीके से समीक्षा कर सकें. 


ज़रूरी शर्तें पूरी करने वाली ऐसी इकाइयां जो अपने प्लैटफ़ॉर्म पर यौन शोषण को रोकने के लिए काम करना चाहती हैं, उनके लिए CSAI Match और Content Safety API, दोनों उपलब्ध हैं. इस बारे में ज़्यादा जानकारी के लिए यहां जाएं.

अपने प्लैटफ़ॉर्म पर सीएसएएम का पता चलने पर, Google क्या करता है?

अपने प्लैटफ़ॉर्म पर सीएसएएम का पता चलने पर, हम उसे हटा देते हैं और एनसीएमईसी को “CyberTipline” रिपोर्ट देते हैं. उल्लंघन के टाइप और गंभीरता को ध्यान में रखते हुए, हम खाते पर चेतावनी भेज सकते हैं. इसके अलावा, Google के कुछ प्रॉडक्ट या सेवाओं पर खाते का ऐक्सेस सीमित कर सकते हैं या Google खाता बंद कर सकते हैं. हम आपके Google खाते की फिर से समीक्षा कर सकते हैं. इससे अन्य सीएसएएम का पता लगाने और/या यह पक्का करने में मदद मिलती है कि Google खाते में पहचाने गए कॉन्टेंट के लिए, नीति उल्लंघन ठीक करने के तरीके (एनफ़ॉर्समेंट) से जुड़ी सही कार्रवाई करने के लिए सभी ज़रूरी जानकारी का ध्यान रख रहे हैं.

 

एनसीएमईसी, संयुक्त राज्य अमेरिका में बच्चों के शोषण से जुड़ी समस्याओं के लिए शिकायत केंद्र है और वह ऐसी समस्याओं के बारे में ज़्यादा जानकारी इकट्ठा करता है. रिपोर्ट मिलने के बाद एनसीएमईसी, उसे दुनिया भर की कानून प्रवर्तन एजेंसियों को फ़ॉरवर्ड कर सकता है.

CyberTipline रिपोर्ट क्या है और इसमें किस तरह की जानकारी होती है?

जब Google को साफ़ तौर पर किसी सीएसएएम का पता चलता है, तो हम एनसीएमईसी को इसकी रिपोर्ट देते हैं. इन रिपोर्ट को आम तौर पर, CyberTipline रिपोर्ट या CyberTips कहा जाता है. साथ ही, हम ऐसे मामलों की पहचान करने की कोशिश करते हैं जिनमें नाबालिग के यौन शोषण, सीएसएएम तैयार करने या चाइल्ड ट्रैफ़िकिंग से जुड़ा कॉन्टेंट शामिल हो. ऐसे मामलों में, हम समस्या को प्राथमिकता देने के लिए, एनसीएमईसी को मदद करने वाली एक CyberTip रिपोर्ट भेजते हैं. एनसीएमईसी को भेजी गई रिपोर्ट में, उपयोगकर्ता या नाबालिग पीड़ित की पहचान करने वाली जानकारी, उल्लंघन करने वाला कॉन्टेंट और/या मामले से जुड़ी अन्य उपयोगी जानकारी शामिल हो सकती है.

यहां कुछ उदाहरण दिए गए हैं, जिनमें बताया गया है कि Google की सबमिट की गई CyberTip रिपोर्ट का, असल दुनिया में क्या असर देखने को मिला. हम कई अलग-अलग तरह की रिपोर्ट बनाते हैं, जिनकी एक झलक यहां दी गई है. हालांकि, इनमें ज़्यादा जानकारी देने वाली रिपोर्ट शामिल नहीं हैं.  

  • Google की एक Cybertip रिपोर्ट में कई सीएसएएम के बारे में शिकायत की गई थी. इनमें बच्चों को प्राइमरी स्कूल के क्लासरूम में दिखाया गया था. इनमें से रिपोर्ट किए गए कुछ सीएसएएम की पहचान, Google पहले नहीं कर पाया था. ऐसा लग रहा था कि उस Google खाते के मालिक ने ही इन्हें बनाया था. एनसीएमईसी ने रिपोर्ट को कानूनी जांच के लिए आगे भेज दिया था. इसके बाद, रिपोर्ट की गई सीएसएएम तस्वीरों में दिख रहे दो नाबालिग बच्चों की पहचान करके, उन्हें सुरक्षित जगह पर भेजा गया.  
  • Google ने एक Cybertip रिपोर्ट में एक खाता मालिक की ओर से सीएसएएम को बनाने और बढ़ावा देने के मामले की शिकायत की थी. इस खाता मालिक ने पैसों के बदले, ऐसे कई वीडियो बनाए जिनमें दर्जनों नाबालिग लड़कों का यौन शोषण दिखाया गया था. एनसीएमईसी ने यह रिपोर्ट कानूनी जांच के लिए आगे भेज दी थी. सीएसएएम बनाने के अपराध में खाता मालिक को सज़ा हुई. साथ ही, यौन शोषण का शिकार हो रहे दर्जनों बच्चों की पहचान करके, उन्हें सुरक्षित जगहों पर भेजा गया.
  • Google ने एक CyberTip रिपोर्ट में पहचाने गए सीएसएएम कॉन्टेंट के एक मामले की शिकायत की. उस शिकायत की वजह से, खाता मालिक को गिरफ़्तार किया गया. जांच एजेंसियों के मुताबिक, उस खाता मालिक के पास सीएसएएम के और भी कॉन्टेंट पाए गए. साथ ही, वह खाता मालिक अपने यहां रहने वाले नाबालिगों का यौन शोषण करता था और अन्य लोगों से भी उनका शोषण करवाता था.  Google, एनसीएमईसी, और जांच एजेंसियों के सहयोग से, तीन बच्चों को यौन शोषण के चंगुल से बचाया गया.
  • Google ने Cybertip पर जिस सीएसएएम की शिकायत की उसे एक Google खाता मालिक ने बनाया था. उसने नाबालिगों से ऑनलाइन संपर्क करके, उन्हें बहलाया-फुसलाया और उनसे सीएसएएम कॉन्टेंट बनवाया. जांच एजेंसियों ने बाद में, खाता मालिक को हिरासत में लिया और यह पता चला कि वह एक मेडिकल प्रोफ़ेशनल था, जिसने लोगों के भरोसे का फ़ायदा उठाया. उसने अपने पद का गलत इस्तेमाल किया और अपने यहां इलाज के लिए आने वाले मरीज़ों का यौन शोषण किया. साथ ही, वह इंटरनेट के ज़रिए नाबालिगों के साथ सीधे संपर्क में था और उन्हें बहला-फुसलाकर उनसे सीएसएएम बनवाता था.

Google, जनरेटिव एआई (GenAI) से जुड़े प्लैटफ़ॉर्म पर, सीएसएएम के खतरों से कैसे निपटता है?

एआई से बनाए गए सीएसएएम या बच्चों का यौन शोषण दिखाने वाली, कंप्यूटर से बनाई गई तस्वीरें Google के लिए सबसे गंभीर खतरा हैं. सीएसएएम का पता लगाने, उसे हटाने, और उसकी शिकायत करने के हमारे काम में, उल्लंघन करने वाला कॉन्टेंट हमेशा शामिल होता है. जैसे, ऐसा कॉन्टेंट जिसमें नाबालिगों को दिखाया गया हो, यौन गतिविधि में शामिल नाबालिगों की ऐसी तस्वीरें जिनमें बदलाव किया गया हो, और जिनसे उनकी पहचान ज़ाहिर होती हो. साथ ही, इसमें कंप्यूटर से बनाई गई ऐसी तस्वीरें भी शामिल हैं जिनमें नाबालिगों को यौन गतिविधियां करते हुए दिखाया गया हो.

Google, अपने जनरेटिव एआई के मॉडल और प्रॉडक्ट बनाते समय, बच्चों की सुरक्षा का खास ध्यान रखता है. Google के सार्वजनिक तौर पर उपलब्ध मॉडल और इन मॉडल का इस्तेमाल करने वाली सभी सेवाओं की सुरक्षा के लिए, हम Google के ज़िम्मेदार जनरेटिव एआई से जुड़े सिद्धांतों का पालन करते हैं.

हम जनरेटिव एआई के अपने मॉडल और प्रॉडक्ट में, बच्चों की सुरक्षा के लिए कई तरह के तरीके अपनाते हैं. इसमें हमारे मॉडल के ट्रेनिंग डेटा में सीएसएएम की मौजूदगी, सीएसएएम खोजने और बनाने वाले प्रॉम्प्ट, और उल्लंघन करने वाले आउटपुट से सुरक्षा पाना शामिल हो सकता है.  हम मॉडल को सार्वजनिक तौर पर उपलब्ध कराने से पहले, बच्चों की सुरक्षा को लेकर कई टेस्ट करते हैं. इससे हमें सीएसएएम को समझने और इसके जनरेट होने की संभावना को कम करने के बारे में पता चलता है.

हम बच्चों की सुरक्षा के लिए काम करने वाले अन्य संगठनों के साथ भी काम करते हैं. इन संगठनों में, टेक्नोलॉजी कोअलिशन और बच्चों की सुरक्षा से जुड़े एनजीओ शामिल हैं. ऐसा करने से हम बच्चों के यौन शोषण को रोकने के सबसे सही तरीके शेयर कर पाते हैं और उनके बारे में जान पाते हैं, क्योंकि यह टेक्नोलॉजी समय के साथ बेहतर होती जाएगी.

लोगों को Search पर सीएसएएम खोजने से रोकने के लिए, Google कौनसे कदम उठाता है?

Google, डिज़ाइन के सिद्धांतों की मदद से सुरक्षा के कई उपायों का इस्तेमाल करता है, ताकि लोगों को Search पर सीएसएएम खोजने से रोका जा सके. हमारी नीति में, खोज के ऐसे नतीजों को ब्लॉक करना शामिल है जो बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट पर लेकर जाते हैं. इसमें ऐसा कॉन्टेंट शामिल है जिसमें बच्चों का यौन शोषण, उन्हें खतरे में डालना या किसी और तरीके से उनका शोषण करते हुए दिखाया गया हो. हम इन बढ़ते हुए खतरों से निपटने के लिए, अपने एल्गोरिदम को लगातार अपडेट कर रहे हैं. जिन खोजों के बारे में हमें लगता है कि वे सीएसएएम कॉन्टेंट ढूंढने के मकसद से की गई हैं, उन पर हम सुरक्षा के ज़्यादा उपाय लागू करते हैं. अगर हमें लगता है कि कोई सर्च क्वेरी, सीएसएएम या वयस्कों का अश्लील कॉन्टेंट ढूंढने के मकसद से की गई है, तो हम अश्लील सेक्शुअल कॉन्टेंट वाले नतीजे फ़िल्टर कर देते हैं. ऐसे में, Search वे तस्वीरें नहीं दिखाता जिनमें बच्चे शामिल हों. इससे बच्चों को सेक्शुअल कॉन्टेंट से अलग करने में मदद मिलती है. सीएसएएम कॉन्टेंट की पहचान होने पर, उसे Search के इंडेक्स से हटाने के अलावा, हम इंडेक्स से ऐसी साइटों के सारे कॉन्टेंट का दर्जा घटा देते हैं जिन पर बहुत ज़्यादा सीएसएएम कॉन्टेंट होता है. कई देशों में, जब लोग सीधे तौर पर सीएसएएम से जुड़ी क्वेरी डालते हैं, तो उन्हें एक अहम चेतावनी दिखती है. इसमें बताया जाता है कि बच्चों का यौन शोषण दिखाने वाली तस्वीरें गैर-कानूनी हैं. साथ ही, यह भी जानकारी दिखाई जाती है कि भरोसेमंद संगठनों के पास इस कॉन्टेंट की शिकायत करने का तरीका क्या है. हमने देखा है कि जब लोगों को इस तरह की चेतावनी दिखती है, तो वे फिर कभी इस तरह का कॉन्टेंट ढूंढने की कोशिश नहीं करते.

Google, सीएसएएम के ख़िलाफ़ लड़ने के लिए, बच्चों की सुरक्षा से जुड़े नेटवर्क में किस तरह से योगदान देता है?

बच्चों की सुरक्षा के लिए बनी Google की टीम, ऐसी टेक्नोलॉजी बनाती है जो सटीक तौर पर, सीएसएएम का पता लगाती है, उसकी शिकायत करती है, और उसे हटाती है. इसका मकसद Google के प्रॉडक्ट पर, हमारे उपयोगकर्ताओं को सुरक्षित रखना और बच्चों को नुकसान पहुंचने से बचाना है. हमने बच्चों की सुरक्षा से जुड़ी टूलकिट डेवलप की है, ताकि पक्का किया जा सके कि ज़्यादा से ज़्यादा प्लैटफ़ॉर्म के पास इस टेक्नोलॉजी का ऐक्सेस हो. इससे बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट को इंटरनेट पर फैलने से रोका जा सकेगा. इसके अलावा, हम एनसीएमईसी को Google का Hash Matching API उपलब्ध कराते हैं. इससे CyberTipline रिपोर्ट को प्राथमिकता देने और बेहतर तरीके से उनकी समीक्षा करने में मदद मिलती है. साथ ही, इन रिपोर्ट पर फ़ोकस करके, उन बच्चों तक मदद पहुंचाई जा सकती है जिन्हें इसकी सख्त ज़रूरत है. 

हम बच्चों का यौन शोषण और उनके साथ बुरे बर्ताव से जुड़े सिग्नल भी शेयर करते हैं, ताकि पूरे नेटवर्क से सीएसएएम को हटाया जा सके. हम एनसीएमईसी के हैश डेटाबेस के साथ सीएसएएम के हैश भी शेयर करते हैं, ताकि खोज की सेवा देने वाली दूसरी कंपनियां भी इन्हें ऐक्सेस और इस्तेमाल कर सकें. हमने Project Lantern के साथ समझौता किया है. यह एक प्रोग्राम है जिसकी मदद से तकनीकी कंपनियां, इंटरनेट पर बच्चों के यौन शोषण और बुरे बर्ताव वाले कॉन्टेंट को रोकने के लिए ज़रूरी सिग्नल को सुरक्षित तरीके से और ज़िम्मेदारी के साथ शेयर करती हैं. ऐसा इसलिए, क्योंकि हम समझते हैं कि यह समस्या अलग-अलग प्लैटफ़ॉर्म और सेवाओं पर बढ़ सकती है.

हम कई गठबंधनों के ऐक्टिव सदस्य हैं. जैसे, टेक्नोलॉजी कोअलिशन, वीप्रोटेक्ट ग्लोबल अलायंस, और आईएनएचओपीई. ये ऐसे संगठन हैं जो कंपनियों और एनजीओ को एक साथ एक मंच पर लाते हैं, ताकि ऐसे समाधान या तरीके बनाए जा सकें जिनसे इंटरनेट पर सीएसएएम को फैलने से रोकने और बच्चों को यौन शोषण से बचाने में मदद मिल सके. Google इन गठबंधनों के साथ-साथ, एनसीएमईसी और थॉर्न जैसे एनजीओ के साथ काम करने पर ज़ोर देता है. हम बच्चों की सुरक्षा से जुड़ी समस्याओं पर अपनी विशेषज्ञता शेयर करते हैं, सबसे सही तरीके खोजते हैं, और नए खतरों के बारे में जानकारी हासिल करते हैं.

सरकारी एजेंसियां, Google को CyberTip से जुड़े कानूनी अनुरोध कैसे भेज सकती हैं?

रिपोर्ट मिलने के बाद एनसीएमईसी, उसे दुनिया भर की कानून प्रवर्तन एजेंसियों को फ़ॉरवर्ड कर सकता है. इसके बाद, कानून प्रवर्तन एजेंसियां कानूनी प्रक्रिया के तहत, Google से ज़्यादा जानकारी मांग सकती हैं (Law Enforcement Request System - LERS). इन अनुरोधों को आगे बढ़ाने में मदद करने के लिए, Google ने एक ऑनलाइन सिस्टम बनाया है. इस सिस्टम के तहत, जिन सरकारी एजेंसियों की पुष्टि हो चुकी है वे आगे की जानकारी पाने के अनुरोध सुरक्षित तरीके से सबमिट कर सकती हैं. इसके बाद, ये एजेंसियां इस ऑनलाइन सिस्टम का इस्तेमाल करके सबमिट किए गए अनुरोधों का स्टेटस देख सकती हैं और Google का जवाब डाउनलोड भी कर सकती हैं. LERS के बारे में ज़्यादा जानकारी या कोई LERS खाता सेट अप करने के लिए, कृपया lers.google.com पर जाएं. ज़्यादा जानकारी के लिए, हमारी नीतियां पढ़ें. इनमें बताया गया है कि Google, उपयोगकर्ताओं की जानकारी पाने के लिए मिले सरकारी अनुरोधों का जवाब कैसे देता है.

 मैं संदिग्ध सीएसएएम की शिकायत कैसे करूं?

अगर आपको कोई ऐसा लिंक, वेबसाइट या कॉन्टेंट मिलता है जो सीएसएएम है, तो इसकी शिकायत पुलिस, एनसीएमईसी या अपने इलाके के किसी सही संगठन से करें. अगर आपको Google के प्रॉडक्ट पर बच्चों के लिए आपत्तिजनक कॉन्टेंट या व्यवहार दिखता या अनुभव होता है, तो हमसे इसकी शिकायत करने के कई तरीके हैं. इनमें बच्चों के लिए बने Google के प्रॉडक्ट पर दिखने वाले खतरनाक कॉन्टेंट की शिकायत करना शामिल है. उदाहरण के लिए, यौन शोषण से पहले बच्चों को बहलाना-फुसलाना, सेक्सटॉर्शन (ऐसा यौन शोषण जिसमें पीड़ित से जुड़ा सेक्शुअल कॉन्टेंट शेयर करने की धमकी देकर उसके ऊपर किसी तरह का दबाव बनाया जाता है), और अन्य तरह का यौन शोषण. अपने बच्चे के Google खाते की सेटिंग को मैनेज करके Google के सभी प्रॉडक्ट पर, लोगों को अपने बच्चे से संपर्क करने से रोका जा सकता है. साथ ही, उस कॉन्टेंट को फ़िल्टर किया जा सकता है जिसे आपका बच्चा देखता है.

सीएसएएम रिपोर्ट की समीक्षा कौनसी टीमें करती हैं?

मानवीय समीक्षा, सीएसएएम से निपटने के लिए हमारी मौजूदा कोशिशों का अहम हिस्सा है. हमारी टीम के सदस्य इस काम को पूरी विशेषज्ञता के साथ करते हैं. टीम में ऐसे लोग शामिल हैं जो कानून, बच्चों की सुरक्षा और उनके अधिकारों की पैरवी, सामाजिक काम और सायबर जांच वगैरह से जुड़े क्षेत्र में काम करते हैं. टीम के सभी सदस्यों को हमारी नीति और कौनसी चीज़ें कानूनी तौर पर, बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट के दायरे में आती हैं, इन दोनों के बारे में खास तौर पर ट्रेनिंग दी जाती है. समीक्षकों की टीमों को विशेष ट्रेनिंग मिलती है और उनकी अच्छी देखभाल की जाती है. Google के कॉन्टेंट मॉडरेशन के तरीके के बारे में ज़्यादा जानने के लिए, यहां जाएं. इसमें समीक्षकों की अच्छी सेहत के लिए, हमारा मदद करने का तरीका भी शामिल है.

इस रिपोर्ट में कौनसी समयावधि कवर की गई है?

यहां दी गई मेट्रिक में, 1 जनवरी को रात 12 बजे पीएसटी से 30 जून को रात 11:59 बजे पीडीटी तक और 1 जुलाई को रात 12 बजे पीडीटी से 31 दिसंबर को रात 11:59 बजे पीएसटी तक का डेटा दिखता है. इसमें तब तक कोई बदलाव नहीं होगा, जब तक अलग से कोई सूचना न दी जाए.
true
मुख्य मेन्यू
6353157323027146530
true
खोज मदद केंद्र
true
true
true
false
false