الأسئلة الشائعة حول جهود Google في مكافحة مواد الاعتداء الجنسي على الأطفال (CSAM) على الإنترنت

ما معنى الاختصار CSAM؟

يشير الاختصار CSAM إلى مواد الاعتداء الجنسي على الأطفال. وتتألف هذه المواد من أي تصوير مرئي يعرض مشاركة قاصر في سلوك جنسي فاضح، على سبيل المثال لا الحصر، الصور والفيديوهات والصور التي ينشئها الكمبيوتر. ندرك أنّ هناك اختلافًا بين مواد الاعتداء الجنسي على الأطفال وعُري الأطفال، وقد تمت صياغة سياساتنا وأنظمتنا خصّيصًا للتعرّف على الصور المقبولة، مثل صور لأطفال يلعبون في حوض استحمام أو فناء منزل، وهي صور ليست ذات طبيعة جنسية ولا تحتوي على مواد الاعتداء الجنسي على الأطفال، وذلك تمييزًا لها عن الصور التي تنتهك القوانين العالمية والتي تتضمن اعتداءً جنسيًا على طفل أو عرضًا فاحشًا للأعضاء التناسلية والمناطق الحميمة. بالإضافة إلى ذلك، هناك أنواع أخرى من الصور الفاحشة أو الاستغلالية التي تشمل الأطفال أو تمثّلهم، مثل الرسوم الكرتونية التي تعرض اعتداءً جنسيًا على الأطفال أو محاولات التمثيل الفكاهي للاستغلال الجنسي للأطفال. قد تُعدّ هذه الصور أيضًا انتهاكًا للقوانين العالمية.

ما هو الأسلوب الذي تتّبعه Google لمكافحة مواد الاعتداء الجنسي على الأطفال؟

تلتزم Google بمكافحة مواد الاعتداء الجنسي على الأطفال على الإنترنت ومنع استخدام منصاتها لإنشاء هذه المواد أو تخزينها أو توزيعها. ونحن نخصص موارد كثيرة لرصد محتوى الاستغلال الجنسي للأطفال وسلوكياته ومنع نشره وإزالته والإبلاغ عنه، وتتمثل تلك الموارد في التكنولوجيات والأفراد والوقت لتنفيذ ذلك. لمزيد من المعلومات حول الجهود التي نبذلها لحماية الأطفال والعائلات، يُرجى الانتقال إلى مركز الأمان في Google، وإرشادات المنتدى في YouTube، وموقعنا الإلكتروني لحماية الأطفال، ومدوّنتنا حول الطريقة التي نرصد بها مواد الاعتداء الجنسي على الأطفال ونُزيلها ونبلغ عنها.

كيف ترصد Google مواد الاعتداء الجنسي على الأطفال على منصتها؟

نستثمر بشكل كبير في مكافحة الاستغلال الجنسي للأطفال على الإنترنت ونستخدم التكنولوجيا في رصد هذا النوع من المحتوى ومنع نشره وإزالته من جميع منصّاتنا. وتشمل جهودنا الرصد المبرمج والمراجعات التي تجريها الفِرق، بالإضافة إلى الاعتماد على البلاغات التي يرسلها المستخدمون والأطراف الأخرى، مثل المؤسسات غير الحكومية. ونستخدم تقنية "مطابقة التجزئة"، بما في ذلك ميزة CSAI Match في YouTube، لرصد المواد المعروفة للاعتداء الجنسي على الأطفال.  نستخدم أيضًا أدوات تصنيف تستند إلى تقنية تعلُّم الآلة للكشف عن مواد اعتداء جنسي على الأطفال لم يتمّ رصدها من قبل، وبعد ذلك تتحقّق منها فِرق المراجعة المتخصّصة. إنّ رصد مواد اعتداء جنسي على الأطفال لم يتمّ كشفها من قبل يساعد المنظومة المتكاملة لسلامة الطفل بعدّة طُرق، تشمل تحديد الضحايا من الأطفال الذين يحتاجون إلى الحماية، بالإضافة إلى المساهمة في مجموعة مطابقات التجزئة لتعزيز قدراتنا على رصد المواد المعروفة للاعتداء الجنسي على الأطفال. باستخدام أدوات التصنيف، أنشأت Google واجهة Content Safety API التي نقدّمها للجهات المؤهَّلة من أجل مساعدتها في إعطاء الأولوية للمحتوى المسيء ليدقّق فيه المراجعون. 


تتوفّر كلٌّ من ميزة CSAI Match وواجهة Content Safety API للجهات المؤهلة الراغبة في مكافحة المحتوى المسيء على منصّاتها. يُرجى زيارة هذه الصفحة للحصول على مزيد من التفاصيل.

ما الإجراءات التي تتّخذها Google عندما ترصد مواد الاعتداء الجنسي على الأطفال على منصّاتها؟

عندما نرصد مواد الاعتداء الجنسي على الأطفال على منصّاتنا، نزيلها ونُعدّ بلاغ CyberTipline ونرسله إلى "المركز الوطني للأطفال المفقودين والمستغلين" (NCMEC). وحسب طبيعة الانتهاك وخطورته، قد نرسل تحذيرًا إلى حساب Google المعنيّ، أو نحظر إمكانية وصوله إلى منتجات أو خدمات معيّنة من Google، أو نوقفه بالكامل. يجوز أيضًا أن نُجري مراجعة إضافية لحساب Google من أجل تحديد المزيد من مواد الاعتداء الجنسي على الأطفال و/أو التأكّد من أنّنا نأخذ السياق المناسب في الاعتبار لضمان اتّخاذ الإجراءات التنفيذية الملائمة في ما يتعلق بالمواد المحدّدة في حساب Google.

 

‫NCMEC هو مركز شامل لتبادل المعلومات وإرسال البلاغات في الولايات المتحدة بشأن المشاكل المتعلّقة باستغلال الأطفال. عندما يتلقّى مركز NCMEC تقريرًا، قد يحيله إلى هيئات إنفاذ القانون حول العالم.

ما هو تقرير CyberTipline وما نوع المعلومات التي يتضمّنها؟

عندما ترصد Google محتوًى يتضمّن بشكل واضح مواد الاعتداء الجنسي على الأطفال، نُعدّ تقريرًا ونرسله إلى NCMEC. ويُشار إلى هذه البلاغات عادةً باسم بلاغات CyberTipLine أو CyberTips. بالإضافة إلى ذلك، نحاول تحديد الحالات التي تتعلّق بالاعتداء الجسدي على قاصر أو إنتاج مواد الاعتداء الجنسي على الأطفال أو عمليات الاتجار بالأطفال. في هذه الحالات، نُرسل بلاغ CyberTip إضافيًا إلى NCMEC للمساعدة في منح الأولوية لهذه المسألة. قد يتضمّن البلاغ المُرسل إلى مركز NCMEC معلومات تحدّد هوية المستخدم والقاصر الضحية، إضافةً إلى المحتوى المخالف و/أو أي بيانات مفيدة تتعلّق بسياق الاعتداء.

في ما يلي بعض الأمثلة على الأثر الفعلي لبلاغات CyberTip التي أرسلتها Google. تقدم هذه الأمثلة لمحة عن النطاق الواسع للتقارير التي نرسلها، ولكنّها ليست شاملة.  

  • أورد أحد تقارير Cybertip من Google حالات عديدة لمواد اعتداء جنسي على أطفال يتم التحرّش بهم في المدارس الابتدائية. لم ترصد Google في السابق بعض مواد الاعتداء الجنسي على الأطفال المُبلّغ عنها، وتبيّن أنّ صاحب حساب Google هو الذي أعدّها. أعاد مركز NCMEC توجيه التقرير إلى مسؤولي إنفاذ القانون، وأدّى هذا إلى التعرّف على وحماية طفلَين قاصرَين ظَهرا في صور مواد الاعتداء الجنسي على الأطفال المُبلّغ عنها.  
  • أفاد أحد تقارير Cybertip من Google أنّ صاحب حساب طلب مواد اعتداء جنسي على الأطفال وأنتجها، وقد طلب إنشاء فيديوهات عديدة تصوّر الاعتداء الجسدي على عشرات القاصرين من الذكور في مقابل المال. وأعاد مركز NCMEC توجيه التقرير إلى مسؤولي إنفاذ القانون. تمت إدانة صاحب الحساب بإنتاج مواد اعتداء جنسي على الأطفال وتم التعرّف على العشرات من الأطفال وحمايتهم من التعرّض لاعتداء مستمر.
  • ذكر أحد تقارير Cybertip من Google حالة لمحتوى يتضمّن مواد اعتداء جنسي على الأطفال أدّى إلى اعتقال صاحب الحساب. فقد أفاد مسؤولو إنفاذ القانون بحيازته لقدر كبير للغاية من مواد الاعتداء الجنسي على الأطفال وتورّطه المباشر في الاعتداء الجسدي على القاصرين تحت رعايته وتقديمهم أيضًا لآخرين للاعتداء عليهم.  بفضل الجهود التي بذلتها Google ومركز NCMEC ومسؤولو إنفاذ القانون، تم إنقاذ ثلاثة أطفال من التعرّض للاعتداء الجنسي.
  • أبلغ أحد تقارير Cybertip من Google عن مواد اعتداء جنسي على الأطفال أنتجها صاحب حساب على Google وطلبها من القاصرين الذين تمكّن من الوصول إليهم على الإنترنت. لاحقًا، ألقى مسؤولو إنفاذ القانون القبض على صاحب الحساب وتبيّن أنّه في موقع ثقة كمتخصص في الرعاية الطبية، وقد استغلّ هذا الموقع للاعتداء على المرضى تحت رعايته وتمكّن من الوصول المباشر إلى القاصرين على الإنترنت وطلب منهم إنتاج مواد اعتداء جنسي على الأطفال.

كيف تتصدّى Google لمخاطر مواد الاعتداء الجنسي على الأطفال في مجال الذكاء الاصطناعي التوليدي (GenAI)؟

إنّ مواد الاعتداء الجنسي على الأطفال التي ينشئها الذكاء الاصطناعي أو الصور التي ينشئها الكمبيوتر والتي تعرض اعتداءً جنسيًا على الأطفال تمثّل تهديدًا تتعامل Google معه بمنتهى الجدّية. إنّ عملنا على رصد مواد الاعتداء الجنسي على الأطفال وإزالتها والإبلاغ عنها لطالما شمل المحتوى المخالف الذي يتضمّن قاصرين، والصور المعدّلة لقاصرين يمكن التعرّف عليهم وهم يشاركون في سلوك جنسي فاضح، والصور من إنشاء الكمبيوتر التي لا يمكن تمييزها عن صور قاصرين يشاركون في مثل هذا السلوك.

نركّز في Google بشدة على سلامة الأطفال عند إنشاء نماذجنا ومنتجاتنا الخاصة المستنِدة إلى الذكاء الاصطناعي التوليدي. ونلتزم بمبادئ الذكاء الاصطناعي التوليدي المسؤولة المتّبعة في Google في حماية جميع نماذج Google المتاحة للجميع والخدمات المستنِدة إلى تلك النماذج.

نستخدم مجموعة متنوعة من الوسائل لحماية سلامة الأطفال في نماذج الذكاء الاصطناعي التوليدي والمنتجات المستنِدة إليه. وقد تشمل هذه الوسائل الحماية من وجود مواد الاعتداء الجنسي على الأطفال في بيانات التدريب التي ترتكز عليها نماذجنا، والحماية من الطلبات التي تهدف إلى الحصول على مواد الاعتداء الجنسي على الأطفال وإلى إنتاجها، وكذلك الحماية من المواد الناتجة المخالِفة.  علاوةً على ذلك، نُجري اختبارات صارمة خاصة بسلامة الأطفال على نماذجنا قبل طرحها للجمهور العام، وذلك لفهم إمكانية إنشاء مواد الاعتداء الجنسي على الأطفال والحدّ منها.

نعمل أيضًا مع جهات أخرى في المنظومة المتكاملة لسلامة الأطفال، بما في ذلك تحالف التكنولوجيا (Technology Coalition) والمنظمات غير الحكومية المعنية بسلامة الأطفال، وذلك لمشاركة أفضل الممارسات وفهمها في ظل التطوّر المستمر لهذه التكنولوجيا.

ما هي الإجراءات التي تنفّذها Google لمنع المستخدمين من طلب مواد الاعتداء الجنسي على الأطفال على "بحث Google"؟

تطبّق Google مبادئ الأمن حسب التصميم لمنع المستخدمين من طلب مواد الاعتداء الجنسي على الأطفال على "بحث Google". وتنصّ سياستنا على حظر نتائج البحث التي تؤدي إلى مواد الاعتداء الجنسي على الأطفال التي يتبيّن أنّها تستغل الأطفال جنسيًا أو تعرّضهم للخطر أو أي نوع آخر من الاستغلال. ونعمل دائمًا على تحديث خوارزمياتنا للتصدّي لهذه التهديدات المستمرة. نطبّق وسائل حماية إضافية على عمليات البحث التي نرى أنّها تهدف للحصول على محتوى مواد الاعتداء الجنسي على الأطفال. تتم فلترة النتائج الإباحية إذا كان يبدو أنّ طلبات البحث تهدف إلى الحصول على تلك المواد، وفي حالة طلبات البحث عن المحتوى الفاضح للبالغين، لا يعرض "بحث Google" الصور التي يظهر بها أطفال، وذلك من أجل عدم الربط بين الأطفال والمحتوى الجنسي. بالإضافة إلى إزالة المحتوى الخاص بمواد الاعتداء الجنسي على الأطفال من فهرس "بحث Google" عند رصده، نخفض أيضًا ترتيب المحتوى في المواقع الإلكترونية التي تحتوي على قدر كبير من هذه المواد. في العديد من البلدان، يظهر تحذير للمستخدمين الذين يُدخلون طلبات بحث ترتبط بوضوح بمواد الاعتداء الجنسي على الأطفال، ويفيد هذا التحذير بأنّ هذه المواد غير قانونية ويعرض معلومات عن كيفية إبلاغ المؤسسات الموثوقة بهذا المحتوى. عند ظهور هذه التحذيرات، وجدنا أنّ احتمال استمرار المستخدمين في البحث عن هذه المواد يقلّ.

كيف تساهم Google في المنظومة المتكاملة لسلامة الطفل من أجل مكافحة مواد الاعتداء الجنسي على الأطفال؟

يعمل فريق Google المعني بسلامة الأطفال على تصميم التكنولوجيا التي يمكنها رصد مواد الاعتداء الجنسي على الأطفال بدقة والإبلاغ عنها وإزالتها من أجل حماية المستخدمين ومنع إيذاء الأطفال على منتجات Google. لقد طوّرنا مجموعة أدوات سلامة الأطفال لضمان وصول المنظومة المتكاملة الأوسع نطاقًا أيضًا إلى هذه التكنولوجيا الفعّالة وللمساعدة في منع انتشار مواد الاعتداء الجنسي على الأطفال على الإنترنت. بالإضافة إلى ذلك، نقدّم واجهة Hash Matching API من Google إلى مركز NCMEC لمساعدته في إعطاء الأولوية لبلاغات CyberTipline ومراجعتها بكفاءة أعلى، ما يتيح له التركيز على البلاغات التي تتضمن الأطفال الذين يحتاجون إلى مساعدة فورية. 

نشارك أيضًا إشارات إلى الاعتداء الجنسي على الأطفال واستغلالهم للسماح بإزالة مواد الاعتداء الجنسي على الأطفال من المنظومة المتكاملة الأوسع نطاقًا. ونشارك الملايين من علامات التجزئة الخاصة بمواد الاعتداء الجنسي على الأطفال مع قاعدة بيانات علامات التجزئة الخاصة بالمجال في مركز NCMEC، وذلك ليتمكّن مقدّمو الخدمات الآخرون من الوصول إلى علامات التجزئة هذه واستخدامها أيضًا. بالإضافة إلى ذلك، انضممنا إلى Project Lantern، وهو برنامج يتيح لشركات التكنولوجيا مشاركة الإشارات ذات الصلة لمكافحة الاستغلال والاعتداء الجنسي على الإنترنت بطريقة آمنة ومسؤولة، مع إدراك أنّ هذا الاعتداء يمكن أن ينتشر عبر مختلف المنصات والخدمات.

نعمل أيضًا بشكل فعّال من خلال اشتراكنا في العديد من الاتحادات، مثل Technology Coalition وWeProtect Global Alliance وINHOPE، والتي تعمل على التنسيق مع الشركات والمنظمات غير الحكومية لوضع حلول من أجل التصدّي لعمليات تبادُل مواد الاعتداء الجنسي على الأطفال على الإنترنت ومنع الاستغلال الجنسي للأطفال. تعطي Google الأولوية للمشاركة في هذه الاتحادات. وفي إطار تعاوننا مع المؤسسات غير الحكومية، مثل مركز NCMEC وThorn، نشارك خبراتنا ونستكشف أفضل الممارسات ونتعرّف أكثر على آخر التهديدات بشأن المشاكل الرئيسية المتعلّقة بسلامة الأطفال.

كيف يمكن للهيئات الحكومية إرسال طلبات قانونية إلى Google مرتبطة ببلاغات CyberTip؟

عندما يتلقّى مركز NCMEC تقريرًا، قد يحيله إلى هيئات إنفاذ القانون حول العالم. ويجوز لهيئات إنفاذ القانون إرسال الإجراء القانوني إلى Google للحصول على مزيد من المعلومات (نظام طلبات إنفاذ القانون - LERS). لتسهيل هذه الطلبات، توفّر Google نظامًا على الإنترنت يسمح للهيئات الحكومية المعتمدة بإرسال طلبات بشكل آمن للحصول على مزيد من المعلومات. بعد ذلك، يمكن لهذه الهيئات الاطّلاع على حالة الطلبات المقدّمة باستخدام هذا النظام على الإنترنت، وفي النهاية تنزيل ردّ Google على طلبها. للمزيد من المعلومات عن نظام طلبات إنفاذ القانون أو لإعداد حساب على هذا النظام، يُرجى الانتقال إلى lers.google.com. وللاطّلاع على معلومات إضافية، يمكنك مراجعة سياساتنا حول كيفية تعامل Google مع الطلبات الحكومية للحصول على معلومات المستخدمين.

 كيف يمكنني الإبلاغ عن محتوى يُشتبه بأنّه يتضمّن مواد الاعتداء الجنسي على الأطفال؟

إذا عثرت على رابط أو موقع إلكتروني أو أي محتوى يتضمّن مواد اعتداء جنسي على الأطفال، يمكنك الإبلاغ عنه للشرطة أو مركز NCMEC أو أي مؤسسة في منطقتك تُعنى بهذا الشأن. إذا رأيت أو واجهت محتوًى أو سلوكًا غير ملائم تجاه الأطفال في أي من منتجات Google، تتوفّر لك طرق متعدّدة لإبلاغنا بها، بما في ذلك من خلال الإبلاغ عن الجرائم التي تعرّض الأطفال للخطر (مثل إغواء الأطفال والابتزاز الجنسي وغير ذلك من أشكال الاستغلال الجنسي للأطفال) التي تحدث على منتجات Google. يمكنك المساعدة على منع أي شخص من التواصل مع طفلك على منتجات Google وفلترة المحتوى الذي يظهر لطفلك من خلال إدارة إعدادات حساب طفلك على Google.

من هي الفِرق التي تعمل على مراجعة التقارير المتعلقة بمواد الاعتداء الجنسي على الأطفال؟

تشكّل مراجعة المخالفات جزءًا مهمًا من جهودنا المستمرة لمكافحة مواد الاعتداء الجنسي على الأطفال. يتعامل أعضاء فريقنا مع هذا الأمر من خلال خبرة طويلة تستند إلى معرفة بالقانون وسلامة الطفل والدفاع عن حقوقه والعمل الاجتماعي والتحقيقات في الجرائم الإلكترونية، وغيرها من التخصصات. وقد حصلوا على تدريب خاص حول نطاق سياستنا والمحتوى الذي يُصنَّف قانونًا ضمن مواد الاعتداء الجنسي على الأطفال. وتخضع فِرق مراجعة المخالفات لتدريب متخصّص وتحصل على دعم للحفاظ على الصحة النفسية للموظفين. لمزيد من المعلومات حول النهج الذي تتبعه Google في الإشراف على المحتوى، بما في ذلك كيفية الحفاظ على الصحة النفسية للمراجعين، يُرجى الاطّلاع على هذه الصفحة.

ما الفترة الزمنية التي يغطيها هذا التقرير؟

تمثل المقاييس المعروضة هنا البيانات المجمّعة بين الساعة 12:00 صباحًا بتوقيت المحيط الهادئ في 1 كانون الثاني (يناير) والساعة 11:59 ليلاً بتوقيت المحيط الهادئ في 30 حزيران (يونيو) وبين الساعة 12:00 صباحًا بتوقيت المحيط الهادئ في 31 تموز (يوليو) والساعة 11:59 ليلاً بتوقيت المحيط الهادئ في 31 كانون الأول (ديسمبر)، ما لم يتمّ تحديد خلاف ذلك.
القائمة الرئيسية
582240299497258505
true
مركز مساعدة البحث
true
true
true
false
false