คำถามที่พบบ่อยเกี่ยวกับความพยายามของ Google ในการต่อสู้กับสื่อที่มีการล่วงละเมิดทางเพศเด็กบนโลกออนไลน์

CSAM คืออะไร

CSAM ย่อมาจาก Child sexual abuse material หรือสื่อที่มีการล่วงละเมิดทางเพศเด็ก สื่อประเภทนี้ประกอบด้วยการแสดงภาพในทุกรูปแบบ ซึ่งรวมถึงแต่ไม่จำกัดเพียงรูปภาพ วิดีโอ และภาพที่สร้างขึ้นด้วยคอมพิวเตอร์ โดยมีการใช้ผู้เยาว์ที่มีส่วนร่วมในการกระทำทางเพศอย่างโจ่งแจ้ง เราทราบว่า CSAM ต่างจากภาพเปลือยของเด็ก นโยบายและระบบของเราจึงได้รับการออกแบบมาเป็นพิเศษเพื่อให้จดจำและแยกแยะภาพที่ไม่มีพิษมีภัย (เช่น ภาพเด็กเล่นในอ่างอาบน้ำหรือสวนหลังบ้าน ซึ่งไม่ได้มีลักษณะเป็นเนื้อหาทางเพศและไม่ใช่ CSAM) ออกจากภาพที่เกี่ยวข้องกับการล่วงละเมิดทางเพศเด็กหรือการแสดงอวัยวะเพศและบริเวณในร่มผ้าที่แสดงถึงความใคร่ซึ่งละเมิดกฎหมายที่ใช้กันทั่วโลก นอกจากนี้ ยังมีภาพลามกอนาจารหรือภาพที่เป็นการแสวงหาประโยชน์ประเภทอื่นๆ ที่มีหรือแสดงถึงเด็ก เช่น การ์ตูนที่แสดงถึงการล่วงละเมิดทางเพศเด็ก หรือความพยายามที่จะสื่อถึงการแสวงหาประโยชน์ทางเพศจากเด็กในเชิงตลกขบขัน ภาพดังกล่าวยังอาจละเมิดกฎหมายที่ใช้กันทั่วโลกอีกด้วย

Google มีแนวทางอย่างไรในการต่อสู้กับ CSAM

Google มุ่งมั่นที่จะต่อสู้กับ CSAM บนโลกออนไลน์และป้องกันไม่ให้มีการใช้แพลตฟอร์มของเราเพื่อสร้าง จัดเก็บ หรือเผยแพร่สื่อประเภทนี้ เราทุ่มเททรัพยากรที่สำคัญ ทั้งเทคโนโลยี บุคลากร และเวลา เพื่อตรวจจับ ยับยั้ง กำจัด รวมทั้งรายงานเนื้อหาและพฤติกรรมการแสวงหาประโยชน์ทางเพศจากเด็ก ดูข้อมูลเพิ่มเติมเกี่ยวกับความพยายามของเราในการปกป้องเด็กและครอบครัวได้ที่ศูนย์ความปลอดภัยของ Google, หลักเกณฑ์ของชุมชนของ YouTube, เว็บไซต์ปกป้องเด็กของเรา และบล็อกเกี่ยวกับวิธีที่เราตรวจจับ นำออก และรายงาน CSAM

Google ระบุ CSAM บนแพลตฟอร์มของตนด้วยวิธีใด

เรามุ่งมั่นทุ่มเทต่อสู้กับการแสวงหาประโยชน์ทางเพศจากเด็กบนโลกออนไลน์และใช้เทคโนโลยีเพื่อยับยั้ง ตรวจจับ และกำจัด CSAM ออกไปจากแพลตฟอร์มของเรา ซึ่งการดำเนินการดังกล่าวรวมถึงการตรวจจับอัตโนมัติและการตรวจสอบจากเจ้าหน้าที่นอกเหนือไปจากรายงานที่ผู้ใช้และบุคคลที่สามอย่าง NGO ส่งเข้ามา เราติดตั้งใช้งานการจับคู่แฮช ซึ่งรวมถึง CSAI Match ของ YouTube เพื่อตรวจจับ CSAM ที่ทราบอยู่แล้ว  นอกจากนี้ เรายังติดตั้งใช้งานตัวแยกประเภทแบบแมชชีนเลิร์นนิงเพื่อค้นหา CSAM ที่ไม่เคยเห็นมาก่อนให้พบ จากนั้นทีมผู้เชี่ยวชาญในการตรวจสอบจะยืนยันเนื้อหาดังกล่าว การตรวจจับ CSAM ที่ไม่เคยเห็นมาก่อนมีส่วนช่วยต่อระบบนิเวศที่ปลอดภัยสำหรับเด็กในหลายๆ ด้าน รวมถึงการระบุเหยื่อที่เป็นเด็กซึ่งกำลังต้องการการป้องกันและการให้ข้อมูลกับแฮชเซ็ตเพื่อเพิ่มพูนความสามารถในการตรวจจับ CSAM ที่ทราบอยู่แล้ว Google ใช้ตัวแยกประเภทเพื่อสร้าง Content Safety API ซึ่งเราให้บริการแก่บุคคลอื่นเพื่อช่วยให้เนื้อหาที่เป็นการละเมิดได้รับการตรวจสอบจากเจ้าหน้าที่ก่อน 


ทั้ง CSAI Match และ Content Safety API พร้อมให้บริการสำหรับบุคคลที่ตรงตามเงื่อนไขซึ่งต้องการต่อสู้กับการล่วงละเมิดบนแพลตฟอร์มของตน โปรดดูรายละเอียดเพิ่มเติมที่นี่

Google ทำอย่างไรเมื่อตรวจพบ CSAM บนแพลตฟอร์มของตน

เมื่อตรวจพบ CSAM บนแพลตฟอร์มของเรา เราจะนำสื่อดังกล่าวออกและส่งรายงาน "CyberTipline" ไปยัง NCMEC เราอาจแสดงคำเตือน จำกัดสิทธิ์ของบัญชีในการเข้าถึงผลิตภัณฑ์หรือบริการบางอย่างของ Google หรือปิดใช้บัญชี Google โดยขึ้นอยู่กับลักษณะและความรุนแรงของการละเมิด นอกจากนี้ เราอาจตรวจสอบบัญชี Google นั้นๆ ต่อไปเพื่อระบุ CSAM เพิ่มเติมและ/หรือเพื่อพิจารณาบริบทที่เกี่ยวข้องเพื่อให้แน่ใจว่าเรากำลังดําเนินการบังคับใช้อย่างเหมาะสมและได้สัดส่วนกับเนื้อหาที่เป็นปัญหาซึ่งระบุได้ในบัญชี Google นั้น

 

NCMEC ทำหน้าที่เป็นหน่วยงานกลางและศูนย์การรายงานครบวงจรในสหรัฐอเมริกาสำหรับปัญหาเกี่ยวกับการแสวงหาประโยชน์จากเด็ก เมื่อได้รับรายงานแล้ว NCMEC อาจส่งต่อรายงานดังกล่าวไปยังหน่วยงานที่บังคับใช้กฎหมายทั่วโลก

รายงาน CyberTipline คืออะไรและรายงานนี้มีข้อมูลอะไรบ้าง

เมื่อ Google ทราบว่ามีสื่อที่เป็น CSAM อย่างชัดเจน เราจะส่งรายงานไปยัง NCMEC รายงานเหล่านี้เรียกกันโดยทั่วไปว่ารายงาน CyberTipLine หรือ CyberTip นอกจากนี้ เรายังพยายามที่จะระบุกรณีที่มีการทำร้ายร่างกายผู้เยาว์ การผลิต CSAM หรือการค้ามนุษย์ในเด็กอีกด้วย ในกรณีเหล่านั้น เราจะส่งรายงาน CyberTip เพิ่มเติมไปยัง NCMEC เพื่อช่วยยกระดับความสำคัญแก่เรื่องดังกล่าว รายงานที่ส่งไปยัง NCMEC อาจมีข้อมูลที่ระบุตัวตนผู้ใช้ เหยื่อที่เป็นผู้เยาว์ และอาจมีเนื้อหาที่ละเมิดและ/หรือข้อมูลบริบทที่เป็นประโยชน์อื่นๆ

ด้านล่างนี้เป็นตัวอย่างส่วนหนึ่งของการเปลี่ยนแปลงที่เกิดขึ้นจริงจากรายงาน CyberTip ที่ Google ส่ง โดยเป็นเพียงข้อมูลสรุปเกี่ยวกับรายงานประเภทต่างๆ ที่เราส่ง ไม่ได้ครอบคลุมทั้งหมด  

  • CyberTip ของ Google รายงาน CSAM หลายชิ้นที่มีการใช้เด็กนักเรียนระดับประถมศึกษาโดยถ่ายทำในฉากของห้องเรียน ก่อนหน้านี้ Google ไม่ได้ระบุตัวตนใน CSAM ที่รายงานบางชิ้นและดูเหมือนว่าสื่อเหล่านี้ผลิตขึ้นโดยเจ้าของบัญชี Google NCMEC ส่งต่อรายงานดังกล่าวไปยังหน่วยงานที่บังคับใช้กฎหมาย ซึ่งนำไปสู่การระบุตัวตนและการคุ้มกันเด็กที่เป็นผู้เยาว์ 2 คนซึ่งปรากฏอยู่ในภาพของ CSAM ที่รายงาน  
  • CyberTip ของ Google รายงานการชักชวนและการผลิต CSAM ของเจ้าของบัญชีรายหนึ่ง ซึ่งขอให้มีการสร้างวิดีโอหลายรายการที่แสดงภาพการทำร้ายร่างกายเด็กชายที่เป็นผู้เยาว์หลายสิบคนเพื่อแลกกับเงิน NCMEC ส่งต่อรายงานดังกล่าวให้กับหน่วยงานที่บังคับใช้กฎหมาย เจ้าของบัญชีรายนั้นถูกตัดสินว่ามีความผิดข้อหาผลิต CSAM และเด็กหลายสิบคนได้รับการระบุตัวตนและคุ้มกันจากการละเมิดที่เกิดขึ้นอย่างต่อเนื่อง
  • CyberTip ของ Google รายงานเนื้อหา CSAM ที่ทราบอยู่แล้วชิ้นหนึ่งที่นำไปสู่การจับกุมเจ้าของบัญชี ซึ่งตามข้อมูลจากหน่วยงานที่บังคับใช้กฎหมายพบว่าเจ้าของบัญชีรายนั้นมี CSAM ไว้ในครอบครองอีกมากมายและมีส่วนร่วมในการทำร้ายร่างกายผู้เยาว์ที่อยู่ภายใต้การดูแลของตน รวมถึงให้ผู้อื่นมาล่วงละเมิดผู้เยาว์เหล่านั้นด้วย  ความพยายามของ Google, NCMEC และหน่วยงานที่บังคับใช้กฎหมายทำให้เด็ก 3 คนได้รับการช่วยเหลือจากการล่วงละเมิดทางเพศ
  • CyberTip ของ Google รายงาน CSAM ที่ผลิตโดยเจ้าของบัญชี Google และมีผู้เยาว์ที่เจ้าของบัญชีสามารถเข้าถึงได้บนโลกออนไลน์ ภายหลังหน่วยงานที่บังคับใช้กฎหมายได้จับกุมและตัดสินว่าเจ้าของบัญชีดังกล่าวอยู่ในตำแหน่งที่ไว้วางใจได้ในฐานะแพทย์ โดยใช้ตำแหน่งนี้ในการละเมิดคนไข้ที่อยู่ในการดูแลของตนและเข้าถึงผู้เยาว์ที่ตนชักชวนให้มาร่วมผลิต CSAM ได้โดยตรงบนโลกออนไลน์

Google รับมือกับความเสี่ยงที่จะเกิด CSAM ขึ้นในการทำงานของ Generative AI (GenAI) อย่างไร

CSAM ที่ AI สร้างขึ้นหรือภาพที่คอมพิวเตอร์สร้างขึ้นซึ่งแสดงการล่วงละเมิดทางเพศเด็กถือเป็นภัยคุกคามที่ Google ให้ความสำคัญอย่างยิ่ง การทำงานของเราในการตรวจจับ นำออก และรายงาน CSAM นั้นมีเนื้อหาที่เป็นการละเมิดซึ่งเกี่ยวข้องกับผู้เยาว์ที่มีตัวตนจริงอยู่เสมอ โดยเป็นภาพที่ผ่านการดัดแปลงของผู้เยาว์ที่ระบุตัวตนได้ซึ่งมีส่วนร่วมในการกระทำทางเพศอย่างโจ่งแจ้ง และภาพที่คอมพิวเตอร์สร้างขึ้นที่ดูคล้ายคลึงกับผู้เยาว์ที่มีตัวตนจริงซึ่งมีส่วนร่วมในการกระทำดังกล่าวจนแยกไม่ออก

Google ให้ความสำคัญกับความปลอดภัยของเด็กอย่างยิ่งยวดเมื่อสร้างโมเดลและผลิตภัณฑ์ GenAI ของเราเอง เราปฏิบัติตามหลักการเกี่ยวกับ Generative AI ที่มีความรับผิดชอบของ Google ในการปกป้องโมเดลทั้งหมดของ Google ที่เปิดให้ใช้งานแบบสาธารณะ รวมถึงบริการที่สร้างต่อยอดจากโมเดลเหล่านั้น

เราติดตั้งใช้งานระบบป้องกันหลากหลายแบบในโมเดลและผลิตภัณฑ์ GenAI ของเราเพื่อคุ้มครองความปลอดภัยของเด็ก ซึ่งรวมถึงการป้องกันไม่ให้มี CSAM อยู่ในข้อมูลการฝึกเบื้องหลังโมเดลของเรา รวมถึงป้องกันการใช้พรอมต์เพื่อค้นหา CSAM และสร้าง CSAM รวมถึงการป้องกันเอาต์พุตที่เป็นการละเมิด  นอกจากนี้ เรายังทำการทดสอบด้านความปลอดภัยของเด็กอย่างมีประสิทธิภาพกับโมเดลของเราก่อนเปิดตัวต่อสาธารณะเพื่อทำความเข้าใจและลดโอกาสในการสร้าง CSAM

เรายังทำงานร่วมกับหน่วยงานอื่นๆ ในระบบนิเวศด้านความปลอดภัยของเด็ก ซึ่งรวมถึงกลุ่มความร่วมมือด้านเทคโนโลยี และ NGO ด้านความปลอดภัยของเด็กเพื่อแบ่งปันและทำความเข้าใจแนวทางปฏิบัติแนะนำในขณะที่เทคโนโลยีนี้พัฒนาไปอย่างต่อเนื่อง

Google ดำเนินการอะไรเพื่อยับยั้งไม่ให้ผู้ใช้ค้นหา CSAM ใน Search

Google ออกแบบโดยคำนึงถึงความปลอดภัยเป็นหลักการสำคัญเพื่อไม่ให้ผู้ใช้ค้นหา CSAM ใน Search เรามีนโยบายในการบล็อกผลการค้นหาที่นำไปสู่สื่อที่มีการล่วงละเมิดทางเพศเด็กซึ่งแสดงภาพการทำให้เด็กตกเป็นเหยื่อ ตกอยู่ในอันตราย หรือแสวงหาประโยชน์ทางเพศจากเด็ก เราอัปเดตอัลกอริทึมอยู่เป็นประจำเพื่อต่อสู้กับภัยคุกคามที่เปลี่ยนแปลงไปอยู่ตลอดเหล่านี้ เราจะนำ CSAM ออกทุกครั้งที่ตรวจพบและลดระดับเนื้อหาทั้งหมดจากเว็บไซต์ที่มีเนื้อหา CSAM ในสัดส่วนที่สูง และใช้การป้องกันเพิ่มเติมกับการค้นหาที่เราทราบว่าต้องการเข้าถึงเนื้อหา CSAM โดยเราจะกรองผลการค้นหาที่โจ่งแจ้งทางเพศออกหากคำค้นหานั้นดูเหมือนจะต้องการเข้าถึง CSAM และสำหรับการค้นหาเนื้อหาสำหรับผู้ใหญ่ที่อาจไม่เหมาะสม Search จะไม่แสดงภาพที่มีเด็ก เพื่อแยกการเชื่อมโยงระหว่างเด็กกับเนื้อหาเกี่ยวกับเรื่องเพศ ในหลายประเทศ ผู้ใช้ที่ป้อนการค้นหาเกี่ยวกับ CSAM อย่างชัดเจนจะได้รับคำเตือนที่เด่นชัดว่าภาพการล่วงละเมิดทางเพศเด็กเป็นสิ่งผิดกฎหมาย พร้อมด้วยข้อมูลเกี่ยวกับวิธีรายงานเนื้อหาประเภทนี้ต่อองค์กรที่เชื่อถือได้ เมื่อมีการแสดงคำเตือนเหล่านี้ เราพบว่าผู้ใช้มีแนวโน้มน้อยลงที่จะค้นหาสื่อประเภทนี้ต่อไป

Google ร่วมต่อสู้กับ CSAM อย่างไรเพื่อสร้างระบบนิเวศที่ปลอดภัยสำหรับเด็ก

ทีมความปลอดภัยของเด็กจาก Google สร้างเทคโนโลยีที่สามารถตรวจจับ รายงาน และนำ CSAM ออกได้อย่างแม่นยำเพื่อปกป้องผู้ใช้และป้องกันไม่ให้เด็กถูกทำร้ายในผลิตภัณฑ์ของ Google เราได้พัฒนาชุดเครื่องมือรักษาความปลอดภัยสำหรับเด็กเพื่อให้ระบบนิเวศในวงกว้างเข้าถึงเทคโนโลยีอันทรงพลังนี้ได้เช่นกัน และเพื่อช่วยป้องกันการแพร่กระจายของสื่อที่มีการล่วงละเมิดทางเพศเด็กบนโลกออนไลน์ นอกจากนี้ เราได้มอบ Hash Matching API ของ Google ให้กับ NCMEC เพื่อช่วยให้จัดลำดับความสำคัญและตรวจสอบรายงาน CyberTipline ได้อย่างมีประสิทธิภาพมากยิ่งขึ้น โดยทำให้ NCMEC สามารถเร่งตรวจสอบรายงานเกี่ยวกับเด็กที่ต้องการความช่วยเหลือในทันทีได้ก่อน 

และเรายังแชร์สัญญาณของการล่วงละเมิดทางเพศและการแสวงหาประโยชน์จากเด็กเพื่อให้นำ CSAM ออกจากระบบนิเวศในวงกว้างได้อีกด้วย เราแชร์แฮชของ CSAM หลายล้านรายการกับฐานข้อมูลแฮชในอุตสาหกรรมของ NCMEC เพื่อให้ผู้ให้บริการรายอื่นๆ เข้าถึงและใช้แฮชเหล่านี้ได้เช่นกัน นอกจากนี้ เรายังได้ลงนามใน Project Lantern ซึ่งเป็นโปรแกรมที่ช่วยให้บริษัทเทคโนโลยีสามารถแชร์สัญญาณที่เกี่ยวข้องเพื่อต่อสู้กับการล่วงละเมิดและการแสวงหาประโยชน์ทางเพศบนโลกออนไลน์ได้ด้วยวิธีที่ปลอดภัยและมีความรับผิดชอบ โดยมีความเข้าใจว่าการละเมิดนี้อาจเกิดขึ้นข้ามแพลตฟอร์มและบริการต่างๆ ได้

เรายังเป็นสมาชิกที่มีบทบาทอย่างต่อเนื่องในกลุ่มความร่วมมือหลายกลุ่มด้วย เช่น กลุ่มความร่วมมือด้านเทคโนโลยี, WeProtect Global Alliance และ INHOPE ซึ่งผนึกกำลังบริษัทและ NGO ต่างๆ เพื่อพัฒนาโซลูชันที่ขัดขวางการแลกเปลี่ยน CSAM บนโลกออนไลน์และป้องกันการแสวงหาประโยชน์ทางเพศจากเด็ก Google ให้ความสำคัญอย่างยิ่งกับการเข้าร่วมกลุ่มความร่วมมือเหล่านี้ และในการทำงานร่วมกับ NGO อย่าง NCMEC และ Thorn นั้น เราแชร์ทักษะความเชี่ยวชาญที่มี สำรวจแนวทางปฏิบัติแนะนำ และเรียนรู้เพิ่มเติมเรื่องภัยคุกคามล่าสุดเกี่ยวกับปัญหาหลักด้านความปลอดภัยของเด็ก

หน่วยงานรัฐบาลจะส่งคำขอทางกฎหมายเกี่ยวกับ CyberTip ถึง Google ได้อย่างไร

เมื่อได้รับรายงานแล้ว NCMEC อาจส่งต่อรายงานดังกล่าวไปยังหน่วยงานที่บังคับใช้กฎหมายทั่วโลก จากนั้นหน่วยงานที่บังคับใช้กฎหมายอาจส่งกระบวนการทางกฎหมายมายัง Google เพื่อขอข้อมูลเพิ่มเติม (ระบบคำขอการบังคับใช้กฎหมาย หรือ LERS) Google มีระบบออนไลน์ที่เปิดโอกาสให้หน่วยงานรัฐบาลที่ได้รับการยืนยันส่งคำขอข้อมูลเพิ่มเติมได้อย่างปลอดภัยเพื่ออำนวยความสะดวกให้แก่คำขอดังกล่าว จากนั้นหน่วยงานจะดูสถานะของคำขอที่ส่งและดาวน์โหลดการตอบกลับคำขอของ Google ได้จากระบบออนไลน์นี้ ดูข้อมูลเพิ่มเติมเกี่ยวกับ LERS หรือสร้างบัญชี LERS ได้ที่ lers.google.com และอ่านรายละเอียดเพิ่มเติมเกี่ยวกับวิธีที่ Google จัดการคำขอข้อมูลผู้ใช้จากรัฐบาลได้ที่นโยบายของเรา

 ฉันจะรายงานสื่อที่สงสัยว่าเป็น CSAM ได้อย่างไร

หากพบลิงก์ เว็บไซต์ หรือเนื้อหาที่เป็น CSAM คุณสามารถรายงานต่อเจ้าหน้าที่ตำรวจ, NCMEC หรือองค์กรที่เหมาะสมในพื้นที่ของคุณ หากพบเห็นหรือประสบกับเนื้อหาหรือพฤติกรรมที่ไม่เหมาะสมต่อเด็กในผลิตภัณฑ์ของ Google คุณสามารถรายงานให้เราทราบได้หลายวิธี รวมถึงโดยการรายงานการกระทำผิดที่เป็นการทำอันตรายต่อเด็ก (เช่น การล่อลวง การขู่กรรโชกทางเพศ การแสวงหาประโยชน์ทางเพศจากเด็กในรูปแบบอื่นๆ) ที่เกิดขึ้นในผลิตภัณฑ์ของ Google คุณช่วยปกป้องไม่ให้ผู้อื่นติดต่อบุตรหลานของคุณในผลิตภัณฑ์ของ Google และกรองเนื้อหาที่บุตรหลานดูได้ด้วยการจัดการการตั้งค่าบัญชี Google ของบุตรหลาน

ทีมใดเป็นผู้ตรวจสอบรายงาน CSAM

การตรวจสอบจากเจ้าหน้าที่เป็นส่วนสำคัญของงานที่เราทำอย่างต่อเนื่องเพื่อต่อสู้กับ CSAM สมาชิกในทีมของเราใช้ความเชี่ยวชาญอย่างลึกซึ้งกับงานนี้จากความรู้และประสบการณ์ด้านกฎหมาย ความปลอดภัยของเด็กและผู้สนับสนุน งานสังคมสงเคราะห์ และการสืบสวนคดีทางอินเทอร์เน็ต ตลอดจนสาขาวิชาอื่นๆ โดยสมาชิกในทีมได้รับการฝึกอบรมมาโดยเฉพาะทั้งด้านขอบเขตของนโยบายและสิ่งที่ประกอบขึ้นเป็นสื่อที่มีการล่วงละเมิดทางเพศเด็กตามกฎหมาย ทีมผู้ตรวจสอบผ่านการฝึกอบรมเฉพาะทางและได้รับการดูแลให้มีสุขภาพจิตที่ดี ดูข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่ Google กลั่นกรองเนื้อหา ซึ่งรวมถึงวิธีที่เราดูแลให้ผู้ตรวจสอบมีสุขภาพจิตที่ดีได้ที่นี่

รายงานนี้ครอบคลุมช่วงเวลาใด

เมตริกที่แสดงอยู่นี้เป็นข้อมูลที่รวบรวมไว้ตั้งแต่เวลา 00:00 น. ตามเขตเวลา PST ในวันที่ 1 มกราคม ถึงเวลา 23:59 น. ตามเขตเวลา PDT ในวันที่ 30 มิถุนายน และตั้งแต่เวลา 00:00 น. ตามเขตเวลา PDT ในวันที่ 1 กรกฎาคม ถึงเวลา 23:59 น. ตามเขตเวลา PST ในวันที่ 31 ธันวาคม เว้นแต่จะระบุไว้เป็นอย่างอื่น
true
เมนูหลัก
9832167178354646956
true
ค้นหาศูนย์ช่วยเหลือ
true
true
true
false
false