सीएसएएम क्या है?
सीएसएएम को रोकने के लिए Google क्या कर रहा है?
Google अपने प्लैटफ़ॉर्म पर सीएसएएम की पहचान कैसे करता है?
हम बच्चों के ऑनलाइन यौन शोषण के ख़िलाफ़ मज़बूती से लड़ते हैं और अपने प्लैटफ़ॉर्म पर सीएसएएम का पता लगाने, उसे रोकने, और उसे हटाने के लिए टेक्नोलॉजी का इस्तेमाल करते हैं. इसमें सीएसएएम का अपने-आप पता लगाने वाली सुविधा और मैन्युअल तरीके से समीक्षा करना शामिल है. हम उपयोगकर्ताओं और तीसरे पक्षों (एनजीओ) से मिली रिपोर्ट का इस्तेमाल भी करते हैं. हम पहचाने गए सीएसएएम का पता लगाने के लिए, हैश मैचिंग का इस्तेमाल करते हैं. इसमें YouTube का CSAI Match भी शामिल है. हम किसी नए सीएसएएम का पता लगाने के लिए, कैटगरी तय करने वाली मशीन लर्निंग टेक्नोलॉजी का इस्तेमाल करते हैं. इसके बाद, हमारे विशेषज्ञों की समीक्षा टीम से इन सीएसएएम की पुष्टि कराई जाती है. किसी नए सीएसएएम का पता लगाने से, बच्चों की सुरक्षा से जुड़े नेटवर्क को कई तरीकों से मदद मिलती है. उदाहरण के लिए, ऐसे पीड़ित बच्चों की पहचान हो पाती है जिन्हें सुरक्षा की ज़रूरत है और हैश मैच के डेटाबेस में योगदान देकर, पहचाने गए सीएसएएम का पता लगाने की हमारी क्षमताएं बेहतर होती हैं. Google ने कैटगरी तय करने वाली हमारी टेक्नोलॉजी का इस्तेमाल करके, Content Safety API बनाया है. हम यह एपीआई अन्य डेवलपर या कंपनियों को देते हैं, ताकि वे यौन शोषण वाले कॉन्टेंट का प्राथमिकता से पता लगाकर, उसकी मैन्युअल तरीके से समीक्षा कर सकें.
ज़रूरी शर्तें पूरी करने वाली ऐसी इकाइयां जो अपने प्लैटफ़ॉर्म पर यौन शोषण को रोकने के लिए काम करना चाहती हैं, उनके लिए CSAI Match और Content Safety API, दोनों उपलब्ध हैं. इस बारे में ज़्यादा जानकारी के लिए यहां जाएं.
अपने प्लैटफ़ॉर्म पर सीएसएएम का पता चलने पर, Google क्या करता है?
एनसीएमईसी, संयुक्त राज्य अमेरिका में बच्चों के शोषण से जुड़ी समस्याओं के लिए शिकायत केंद्र है और वह ऐसी समस्याओं के बारे में ज़्यादा जानकारी इकट्ठा करता है. रिपोर्ट मिलने के बाद एनसीएमईसी, उसे दुनिया भर की कानून प्रवर्तन एजेंसियों को फ़ॉरवर्ड कर सकता है.
CyberTipline रिपोर्ट क्या है और इसमें किस तरह की जानकारी होती है?
जब Google को साफ़ तौर पर किसी सीएसएएम का पता चलता है, तो हम एनसीएमईसी को इसकी रिपोर्ट देते हैं. इन रिपोर्ट को आम तौर पर, CyberTipline रिपोर्ट या CyberTips कहा जाता है. साथ ही, हम ऐसे मामलों की पहचान करने की कोशिश करते हैं जिनमें नाबालिग के यौन शोषण, सीएसएएम तैयार करने या चाइल्ड ट्रैफ़िकिंग से जुड़ा कॉन्टेंट शामिल हो. ऐसे मामलों में, हम समस्या को प्राथमिकता देने के लिए, एनसीएमईसी को मदद करने वाली एक CyberTip रिपोर्ट भेजते हैं. एनसीएमईसी को भेजी गई रिपोर्ट में, उपयोगकर्ता या नाबालिग पीड़ित की पहचान करने वाली जानकारी, उल्लंघन करने वाला कॉन्टेंट और/या मामले से जुड़ी अन्य उपयोगी जानकारी शामिल हो सकती है.
यहां कुछ उदाहरण दिए गए हैं, जिनमें बताया गया है कि Google की सबमिट की गई CyberTip रिपोर्ट का, असल दुनिया में क्या असर देखने को मिला. हम कई अलग-अलग तरह की रिपोर्ट बनाते हैं, जिनकी एक झलक यहां दी गई है. हालांकि, इनमें ज़्यादा जानकारी देने वाली रिपोर्ट शामिल नहीं हैं.
- Google की एक Cybertip रिपोर्ट में कई सीएसएएम के बारे में शिकायत की गई थी. इनमें बच्चों को प्राइमरी स्कूल के क्लासरूम में दिखाया गया था. इनमें से रिपोर्ट किए गए कुछ सीएसएएम की पहचान, Google पहले नहीं कर पाया था. ऐसा लग रहा था कि उस Google खाते के मालिक ने ही इन्हें बनाया था. एनसीएमईसी ने रिपोर्ट को कानूनी जांच के लिए आगे भेज दिया था. इसके बाद, रिपोर्ट की गई सीएसएएम तस्वीरों में दिख रहे दो नाबालिग बच्चों की पहचान करके, उन्हें सुरक्षित जगह पर भेजा गया.
- Google ने एक Cybertip रिपोर्ट में एक खाता मालिक की ओर से सीएसएएम को बनाने और बढ़ावा देने के मामले की शिकायत की थी. इस खाता मालिक ने पैसों के बदले, ऐसे कई वीडियो बनाए जिनमें दर्जनों नाबालिग लड़कों का यौन शोषण दिखाया गया था. एनसीएमईसी ने यह रिपोर्ट कानूनी जांच के लिए आगे भेज दी थी. सीएसएएम बनाने के अपराध में खाता मालिक को सज़ा हुई. साथ ही, यौन शोषण का शिकार हो रहे दर्जनों बच्चों की पहचान करके, उन्हें सुरक्षित जगहों पर भेजा गया.
- Google ने एक CyberTip रिपोर्ट में पहचाने गए सीएसएएम कॉन्टेंट के एक मामले की शिकायत की. उस शिकायत की वजह से, खाता मालिक को गिरफ़्तार किया गया. जांच एजेंसियों के मुताबिक, उस खाता मालिक के पास सीएसएएम के और भी कॉन्टेंट पाए गए. साथ ही, वह खाता मालिक अपने यहां रहने वाले नाबालिगों का यौन शोषण करता था और अन्य लोगों से भी उनका शोषण करवाता था. Google, एनसीएमईसी, और जांच एजेंसियों के सहयोग से, तीन बच्चों को यौन शोषण के चंगुल से बचाया गया.
- Google ने Cybertip पर जिस सीएसएएम की शिकायत की उसे एक Google खाता मालिक ने बनाया था. उसने नाबालिगों से ऑनलाइन संपर्क करके, उन्हें बहलाया-फुसलाया और उनसे सीएसएएम कॉन्टेंट बनवाया. जांच एजेंसियों ने बाद में, खाता मालिक को हिरासत में लिया और यह पता चला कि वह एक मेडिकल प्रोफ़ेशनल था, जिसने लोगों के भरोसे का फ़ायदा उठाया. उसने अपने पद का गलत इस्तेमाल किया और अपने यहां इलाज के लिए आने वाले मरीज़ों का यौन शोषण किया. साथ ही, वह इंटरनेट के ज़रिए नाबालिगों के साथ सीधे संपर्क में था और उन्हें बहला-फुसलाकर उनसे सीएसएएम बनवाता था.
Google, जनरेटिव एआई (GenAI) से जुड़े प्लैटफ़ॉर्म पर, सीएसएएम के खतरों से कैसे निपटता है?
एआई से बनाए गए सीएसएएम या बच्चों का यौन शोषण दिखाने वाली, कंप्यूटर से बनाई गई तस्वीरें Google के लिए सबसे गंभीर खतरा हैं. सीएसएएम का पता लगाने, उसे हटाने, और उसकी शिकायत करने के हमारे काम में, उल्लंघन करने वाला कॉन्टेंट हमेशा शामिल होता है. जैसे, ऐसा कॉन्टेंट जिसमें नाबालिगों को दिखाया गया हो, यौन गतिविधि में शामिल नाबालिगों की ऐसी तस्वीरें जिनमें बदलाव किया गया हो, और जिनसे उनकी पहचान ज़ाहिर होती हो. साथ ही, इसमें कंप्यूटर से बनाई गई ऐसी तस्वीरें भी शामिल हैं जिनमें नाबालिगों को यौन गतिविधियां करते हुए दिखाया गया हो.
Google, अपने जनरेटिव एआई के मॉडल और प्रॉडक्ट बनाते समय, बच्चों की सुरक्षा का खास ध्यान रखता है. Google के सार्वजनिक तौर पर उपलब्ध मॉडल और इन मॉडल का इस्तेमाल करने वाली सभी सेवाओं की सुरक्षा के लिए, हम Google के ज़िम्मेदार जनरेटिव एआई से जुड़े सिद्धांतों का पालन करते हैं.
हम जनरेटिव एआई के अपने मॉडल और प्रॉडक्ट में, बच्चों की सुरक्षा के लिए कई तरह के तरीके अपनाते हैं. इसमें हमारे मॉडल के ट्रेनिंग डेटा में सीएसएएम की मौजूदगी, सीएसएएम खोजने और बनाने वाले प्रॉम्प्ट, और उल्लंघन करने वाले आउटपुट से सुरक्षा पाना शामिल हो सकता है. हम मॉडल को सार्वजनिक तौर पर उपलब्ध कराने से पहले, बच्चों की सुरक्षा को लेकर कई टेस्ट करते हैं. इससे हमें सीएसएएम को समझने और इसके जनरेट होने की संभावना को कम करने के बारे में पता चलता है.
हम बच्चों की सुरक्षा के लिए काम करने वाले अन्य संगठनों के साथ भी काम करते हैं. इन संगठनों में, टेक्नोलॉजी कोअलिशन और बच्चों की सुरक्षा से जुड़े एनजीओ शामिल हैं. ऐसा करने से हम बच्चों के यौन शोषण को रोकने के सबसे सही तरीके शेयर कर पाते हैं और उनके बारे में जान पाते हैं, क्योंकि यह टेक्नोलॉजी समय के साथ बेहतर होती जाएगी.
लोगों को Search पर सीएसएएम खोजने से रोकने के लिए, Google कौनसे कदम उठाता है?
Google, सीएसएएम के ख़िलाफ़ लड़ने के लिए, बच्चों की सुरक्षा से जुड़े नेटवर्क में किस तरह से योगदान देता है?
बच्चों की सुरक्षा के लिए बनी Google की टीम, ऐसी टेक्नोलॉजी बनाती है जो सटीक तौर पर, सीएसएएम का पता लगाती है, उसकी शिकायत करती है, और उसे हटाती है. इसका मकसद Google के प्रॉडक्ट पर, हमारे उपयोगकर्ताओं को सुरक्षित रखना और बच्चों को नुकसान पहुंचने से बचाना है. हमने बच्चों की सुरक्षा से जुड़ी टूलकिट डेवलप की है, ताकि पक्का किया जा सके कि ज़्यादा से ज़्यादा प्लैटफ़ॉर्म के पास इस टेक्नोलॉजी का ऐक्सेस हो. इससे बच्चों का यौन शोषण दिखाने वाले कॉन्टेंट को इंटरनेट पर फैलने से रोका जा सकेगा. इसके अलावा, हम एनसीएमईसी को Google का Hash Matching API उपलब्ध कराते हैं. इससे CyberTipline रिपोर्ट को प्राथमिकता देने और बेहतर तरीके से उनकी समीक्षा करने में मदद मिलती है. साथ ही, इन रिपोर्ट पर फ़ोकस करके, उन बच्चों तक मदद पहुंचाई जा सकती है जिन्हें इसकी सख्त ज़रूरत है.
हम बच्चों का यौन शोषण और उनके साथ बुरे बर्ताव से जुड़े सिग्नल भी शेयर करते हैं, ताकि पूरे नेटवर्क से सीएसएएम को हटाया जा सके. हम एनसीएमईसी के हैश डेटाबेस के साथ सीएसएएम के हैश भी शेयर करते हैं, ताकि खोज की सेवा देने वाली दूसरी कंपनियां भी इन्हें ऐक्सेस और इस्तेमाल कर सकें. हमने Project Lantern के साथ समझौता किया है. यह एक प्रोग्राम है जिसकी मदद से तकनीकी कंपनियां, इंटरनेट पर बच्चों के यौन शोषण और बुरे बर्ताव वाले कॉन्टेंट को रोकने के लिए ज़रूरी सिग्नल को सुरक्षित तरीके से और ज़िम्मेदारी के साथ शेयर करती हैं. ऐसा इसलिए, क्योंकि हम समझते हैं कि यह समस्या अलग-अलग प्लैटफ़ॉर्म और सेवाओं पर बढ़ सकती है.
हम कई गठबंधनों के ऐक्टिव सदस्य हैं. जैसे, टेक्नोलॉजी कोअलिशन, वीप्रोटेक्ट ग्लोबल अलायंस, और आईएनएचओपीई. ये ऐसे संगठन हैं जो कंपनियों और एनजीओ को एक साथ एक मंच पर लाते हैं, ताकि ऐसे समाधान या तरीके बनाए जा सकें जिनसे इंटरनेट पर सीएसएएम को फैलने से रोकने और बच्चों को यौन शोषण से बचाने में मदद मिल सके. Google इन गठबंधनों के साथ-साथ, एनसीएमईसी और थॉर्न जैसे एनजीओ के साथ काम करने पर ज़ोर देता है. हम बच्चों की सुरक्षा से जुड़ी समस्याओं पर अपनी विशेषज्ञता शेयर करते हैं, सबसे सही तरीके खोजते हैं, और नए खतरों के बारे में जानकारी हासिल करते हैं.