CSAM คืออะไร
Google มีแนวทางอย่างไรในการต่อสู้กับ CSAM
Google ระบุ CSAM บนแพลตฟอร์มของตนด้วยวิธีใด
เรามุ่งมั่นทุ่มเทต่อสู้กับการแสวงหาประโยชน์ทางเพศจากเด็กบนโลกออนไลน์และใช้เทคโนโลยีเพื่อยับยั้ง ตรวจจับ และกำจัด CSAM ออกไปจากแพลตฟอร์มของเรา ซึ่งการดำเนินการดังกล่าวรวมถึงการตรวจจับอัตโนมัติและการตรวจสอบจากเจ้าหน้าที่นอกเหนือไปจากรายงานที่ผู้ใช้และบุคคลที่สามอย่าง NGO ส่งเข้ามา เราติดตั้งใช้งานการจับคู่แฮช ซึ่งรวมถึง CSAI Match ของ YouTube เพื่อตรวจจับ CSAM ที่ทราบอยู่แล้ว นอกจากนี้ เรายังติดตั้งใช้งานตัวแยกประเภทแบบแมชชีนเลิร์นนิงเพื่อค้นหา CSAM ที่ไม่เคยเห็นมาก่อนให้พบ จากนั้นทีมผู้เชี่ยวชาญในการตรวจสอบจะยืนยันเนื้อหาดังกล่าว การตรวจจับ CSAM ที่ไม่เคยเห็นมาก่อนมีส่วนช่วยต่อระบบนิเวศที่ปลอดภัยสำหรับเด็กในหลายๆ ด้าน รวมถึงการระบุเหยื่อที่เป็นเด็กซึ่งกำลังต้องการการป้องกันและการให้ข้อมูลกับแฮชเซ็ตเพื่อเพิ่มพูนความสามารถในการตรวจจับ CSAM ที่ทราบอยู่แล้ว Google ใช้ตัวแยกประเภทเพื่อสร้าง Content Safety API ซึ่งเราให้บริการแก่บุคคลอื่นเพื่อช่วยให้เนื้อหาที่เป็นการละเมิดได้รับการตรวจสอบจากเจ้าหน้าที่ก่อน
ทั้ง CSAI Match และ Content Safety API พร้อมให้บริการสำหรับบุคคลที่ตรงตามเงื่อนไขซึ่งต้องการต่อสู้กับการล่วงละเมิดบนแพลตฟอร์มของตน โปรดดูรายละเอียดเพิ่มเติมที่นี่
Google ทำอย่างไรเมื่อตรวจพบ CSAM บนแพลตฟอร์มของตน
NCMEC ทำหน้าที่เป็นหน่วยงานกลางและศูนย์การรายงานครบวงจรในสหรัฐอเมริกาสำหรับปัญหาเกี่ยวกับการแสวงหาประโยชน์จากเด็ก เมื่อได้รับรายงานแล้ว NCMEC อาจส่งต่อรายงานดังกล่าวไปยังหน่วยงานที่บังคับใช้กฎหมายทั่วโลก
รายงาน CyberTipline คืออะไรและรายงานนี้มีข้อมูลอะไรบ้าง
เมื่อ Google ทราบว่ามีสื่อที่เป็น CSAM อย่างชัดเจน เราจะส่งรายงานไปยัง NCMEC รายงานเหล่านี้เรียกกันโดยทั่วไปว่ารายงาน CyberTipLine หรือ CyberTip นอกจากนี้ เรายังพยายามที่จะระบุกรณีที่มีการทำร้ายร่างกายผู้เยาว์ การผลิต CSAM หรือการค้ามนุษย์ในเด็กอีกด้วย ในกรณีเหล่านั้น เราจะส่งรายงาน CyberTip เพิ่มเติมไปยัง NCMEC เพื่อช่วยยกระดับความสำคัญแก่เรื่องดังกล่าว รายงานที่ส่งไปยัง NCMEC อาจมีข้อมูลที่ระบุตัวตนผู้ใช้ เหยื่อที่เป็นผู้เยาว์ และอาจมีเนื้อหาที่ละเมิดและ/หรือข้อมูลบริบทที่เป็นประโยชน์อื่นๆ
ด้านล่างนี้เป็นตัวอย่างส่วนหนึ่งของการเปลี่ยนแปลงที่เกิดขึ้นจริงจากรายงาน CyberTip ที่ Google ส่ง โดยเป็นเพียงข้อมูลสรุปเกี่ยวกับรายงานประเภทต่างๆ ที่เราส่ง ไม่ได้ครอบคลุมทั้งหมด
- CyberTip ของ Google รายงาน CSAM หลายชิ้นที่มีการใช้เด็กนักเรียนระดับประถมศึกษาโดยถ่ายทำในฉากของห้องเรียน ก่อนหน้านี้ Google ไม่ได้ระบุตัวตนใน CSAM ที่รายงานบางชิ้นและดูเหมือนว่าสื่อเหล่านี้ผลิตขึ้นโดยเจ้าของบัญชี Google NCMEC ส่งต่อรายงานดังกล่าวไปยังหน่วยงานที่บังคับใช้กฎหมาย ซึ่งนำไปสู่การระบุตัวตนและการคุ้มกันเด็กที่เป็นผู้เยาว์ 2 คนซึ่งปรากฏอยู่ในภาพของ CSAM ที่รายงาน
- CyberTip ของ Google รายงานการชักชวนและการผลิต CSAM ของเจ้าของบัญชีรายหนึ่ง ซึ่งขอให้มีการสร้างวิดีโอหลายรายการที่แสดงภาพการทำร้ายร่างกายเด็กชายที่เป็นผู้เยาว์หลายสิบคนเพื่อแลกกับเงิน NCMEC ส่งต่อรายงานดังกล่าวให้กับหน่วยงานที่บังคับใช้กฎหมาย เจ้าของบัญชีรายนั้นถูกตัดสินว่ามีความผิดข้อหาผลิต CSAM และเด็กหลายสิบคนได้รับการระบุตัวตนและคุ้มกันจากการละเมิดที่เกิดขึ้นอย่างต่อเนื่อง
- CyberTip ของ Google รายงานเนื้อหา CSAM ที่ทราบอยู่แล้วชิ้นหนึ่งที่นำไปสู่การจับกุมเจ้าของบัญชี ซึ่งตามข้อมูลจากหน่วยงานที่บังคับใช้กฎหมายพบว่าเจ้าของบัญชีรายนั้นมี CSAM ไว้ในครอบครองอีกมากมายและมีส่วนร่วมในการทำร้ายร่างกายผู้เยาว์ที่อยู่ภายใต้การดูแลของตน รวมถึงให้ผู้อื่นมาล่วงละเมิดผู้เยาว์เหล่านั้นด้วย ความพยายามของ Google, NCMEC และหน่วยงานที่บังคับใช้กฎหมายทำให้เด็ก 3 คนได้รับการช่วยเหลือจากการล่วงละเมิดทางเพศ
- CyberTip ของ Google รายงาน CSAM ที่ผลิตโดยเจ้าของบัญชี Google และมีผู้เยาว์ที่เจ้าของบัญชีสามารถเข้าถึงได้บนโลกออนไลน์ ภายหลังหน่วยงานที่บังคับใช้กฎหมายได้จับกุมและตัดสินว่าเจ้าของบัญชีดังกล่าวอยู่ในตำแหน่งที่ไว้วางใจได้ในฐานะแพทย์ โดยใช้ตำแหน่งนี้ในการละเมิดคนไข้ที่อยู่ในการดูแลของตนและเข้าถึงผู้เยาว์ที่ตนชักชวนให้มาร่วมผลิต CSAM ได้โดยตรงบนโลกออนไลน์
Google รับมือกับความเสี่ยงที่จะเกิด CSAM ขึ้นในการทำงานของ Generative AI (GenAI) อย่างไร
CSAM ที่ AI สร้างขึ้นหรือภาพที่คอมพิวเตอร์สร้างขึ้นซึ่งแสดงการล่วงละเมิดทางเพศเด็กถือเป็นภัยคุกคามที่ Google ให้ความสำคัญอย่างยิ่ง การทำงานของเราในการตรวจจับ นำออก และรายงาน CSAM นั้นมีเนื้อหาที่เป็นการละเมิดซึ่งเกี่ยวข้องกับผู้เยาว์ที่มีตัวตนจริงอยู่เสมอ โดยเป็นภาพที่ผ่านการดัดแปลงของผู้เยาว์ที่ระบุตัวตนได้ซึ่งมีส่วนร่วมในการกระทำทางเพศอย่างโจ่งแจ้ง และภาพที่คอมพิวเตอร์สร้างขึ้นที่ดูคล้ายคลึงกับผู้เยาว์ที่มีตัวตนจริงซึ่งมีส่วนร่วมในการกระทำดังกล่าวจนแยกไม่ออก
Google ให้ความสำคัญกับความปลอดภัยของเด็กอย่างยิ่งยวดเมื่อสร้างโมเดลและผลิตภัณฑ์ GenAI ของเราเอง เราปฏิบัติตามหลักการเกี่ยวกับ Generative AI ที่มีความรับผิดชอบของ Google ในการปกป้องโมเดลทั้งหมดของ Google ที่เปิดให้ใช้งานแบบสาธารณะ รวมถึงบริการที่สร้างต่อยอดจากโมเดลเหล่านั้น
เราติดตั้งใช้งานระบบป้องกันหลากหลายแบบในโมเดลและผลิตภัณฑ์ GenAI ของเราเพื่อคุ้มครองความปลอดภัยของเด็ก ซึ่งรวมถึงการป้องกันไม่ให้มี CSAM อยู่ในข้อมูลการฝึกเบื้องหลังโมเดลของเรา รวมถึงป้องกันการใช้พรอมต์เพื่อค้นหา CSAM และสร้าง CSAM รวมถึงการป้องกันเอาต์พุตที่เป็นการละเมิด นอกจากนี้ เรายังทำการทดสอบด้านความปลอดภัยของเด็กอย่างมีประสิทธิภาพกับโมเดลของเราก่อนเปิดตัวต่อสาธารณะเพื่อทำความเข้าใจและลดโอกาสในการสร้าง CSAM
เรายังทำงานร่วมกับหน่วยงานอื่นๆ ในระบบนิเวศด้านความปลอดภัยของเด็ก ซึ่งรวมถึงกลุ่มความร่วมมือด้านเทคโนโลยี และ NGO ด้านความปลอดภัยของเด็กเพื่อแบ่งปันและทำความเข้าใจแนวทางปฏิบัติแนะนำในขณะที่เทคโนโลยีนี้พัฒนาไปอย่างต่อเนื่อง
Google ดำเนินการอะไรเพื่อยับยั้งไม่ให้ผู้ใช้ค้นหา CSAM ใน Search
Google ร่วมต่อสู้กับ CSAM อย่างไรเพื่อสร้างระบบนิเวศที่ปลอดภัยสำหรับเด็ก
ทีมความปลอดภัยของเด็กจาก Google สร้างเทคโนโลยีที่สามารถตรวจจับ รายงาน และนำ CSAM ออกได้อย่างแม่นยำเพื่อปกป้องผู้ใช้และป้องกันไม่ให้เด็กถูกทำร้ายในผลิตภัณฑ์ของ Google เราได้พัฒนาชุดเครื่องมือรักษาความปลอดภัยสำหรับเด็กเพื่อให้ระบบนิเวศในวงกว้างเข้าถึงเทคโนโลยีอันทรงพลังนี้ได้เช่นกัน และเพื่อช่วยป้องกันการแพร่กระจายของสื่อที่มีการล่วงละเมิดทางเพศเด็กบนโลกออนไลน์ นอกจากนี้ เราได้มอบ Hash Matching API ของ Google ให้กับ NCMEC เพื่อช่วยให้จัดลำดับความสำคัญและตรวจสอบรายงาน CyberTipline ได้อย่างมีประสิทธิภาพมากยิ่งขึ้น โดยทำให้ NCMEC สามารถเร่งตรวจสอบรายงานเกี่ยวกับเด็กที่ต้องการความช่วยเหลือในทันทีได้ก่อน
และเรายังแชร์สัญญาณของการล่วงละเมิดทางเพศและการแสวงหาประโยชน์จากเด็กเพื่อให้นำ CSAM ออกจากระบบนิเวศในวงกว้างได้อีกด้วย เราแชร์แฮชของ CSAM หลายล้านรายการกับฐานข้อมูลแฮชในอุตสาหกรรมของ NCMEC เพื่อให้ผู้ให้บริการรายอื่นๆ เข้าถึงและใช้แฮชเหล่านี้ได้เช่นกัน นอกจากนี้ เรายังได้ลงนามใน Project Lantern ซึ่งเป็นโปรแกรมที่ช่วยให้บริษัทเทคโนโลยีสามารถแชร์สัญญาณที่เกี่ยวข้องเพื่อต่อสู้กับการล่วงละเมิดและการแสวงหาประโยชน์ทางเพศบนโลกออนไลน์ได้ด้วยวิธีที่ปลอดภัยและมีความรับผิดชอบ โดยมีความเข้าใจว่าการละเมิดนี้อาจเกิดขึ้นข้ามแพลตฟอร์มและบริการต่างๆ ได้
เรายังเป็นสมาชิกที่มีบทบาทอย่างต่อเนื่องในกลุ่มความร่วมมือหลายกลุ่มด้วย เช่น กลุ่มความร่วมมือด้านเทคโนโลยี, WeProtect Global Alliance และ INHOPE ซึ่งผนึกกำลังบริษัทและ NGO ต่างๆ เพื่อพัฒนาโซลูชันที่ขัดขวางการแลกเปลี่ยน CSAM บนโลกออนไลน์และป้องกันการแสวงหาประโยชน์ทางเพศจากเด็ก Google ให้ความสำคัญอย่างยิ่งกับการเข้าร่วมกลุ่มความร่วมมือเหล่านี้ และในการทำงานร่วมกับ NGO อย่าง NCMEC และ Thorn นั้น เราแชร์ทักษะความเชี่ยวชาญที่มี สำรวจแนวทางปฏิบัติแนะนำ และเรียนรู้เพิ่มเติมเรื่องภัยคุกคามล่าสุดเกี่ยวกับปัญหาหลักด้านความปลอดภัยของเด็ก