FAQ tentang Upaya Google untuk Melawan Materi Pelecehan Seksual terhadap Anak-Anak di Internet

Apa itu CSAM?

CSAM adalah singkatan dari child sexual abuse material, yang berarti materi pelecehan seksual terhadap anak-anak. Materi ini mencakup segala jenis penggambaran visual, termasuk, tetapi tidak terbatas pada foto, video, dan gambar yang dihasilkan komputer, yang menunjukkan anak di bawah umur melakukan perilaku seksual vulgar. Kami menyadari bahwa CSAM tidak sama dengan ketelanjangan anak, dan kebijakan serta sistem kami dirancang khusus untuk mengenali dan membedakan gambar yang tidak berbahaya seperti seorang anak yang bermain di bak mandi atau halaman belakang, yang tidak bersifat seksual dan bukan CSAM, dengan gambar yang berisi pelecehan seksual terhadap anak-anak atau menunjukkan alat kelamin dan area intim secara tidak senonoh, yang merupakan pelanggaran terhadap hukum global. Selain itu, ada jenis gambar cabul atau eksploitatif lainnya yang melibatkan atau menampilkan anak-anak, seperti gambar kartun yang berisi pelecehan seksual terhadap anak-anak atau upaya menampilkan eksploitasi seksual terhadap anak-anak secara humoris. Gambar ini juga bisa melanggar hukum global.

Bagaimana pendekatan Google dalam melawan CSAM?

Google berkomitmen untuk melawan CSAM secara online dan mencegah agar platform kami tidak digunakan untuk membuat, menyimpan, atau mendistribusikan materi ini. Kami mengerahkan sumber daya teknologi, manusia, dan waktu yang signifikan untuk mendeteksi, mencegah, menghapus, serta melaporkan konten dan perilaku eksploitasi seksual terhadap anak-anak. Untuk mengetahui informasi lebih lanjut mengenai upaya kami dalam melindungi keluarga dan anak-anak, buka Pusat Keamanan Google, Pedoman Komunitas YouTube, Situs Perlindungan Anak-Anak, dan blog tentang cara kami mendeteksi, menghapus, serta melaporkan CSAM.

Bagaimana cara Google mengidentifikasi CSAM di platformnya?

Kami banyak berinvestasi dalam melawan eksploitasi seksual terhadap anak-anak secara online dan menggunakan teknologi untuk mencegah, mendeteksi, serta menghapus CSAM dari platform kami. Selain mengandalkan laporan yang dikirimkan oleh pengguna kami dan pihak ketiga seperti LSM, upaya ini juga mencakup deteksi otomatis dan peninjauan manual. Kami men-deploy pencocokan hash, termasuk CSAI Match YouTube, untuk mendeteksi CSAM yang dikenal.  Kami juga men-deploy pengklasifikasi machine learning untuk menemukan CSAM yang belum pernah terlihat, yang kemudian dikonfirmasi oleh tim peninjau spesialis kami. Deteksi CSAM yang belum pernah terlihat ini dapat membantu ekosistem keselamatan anak dalam berbagai cara, termasuk mengidentifikasi korban anak-anak yang membutuhkan perlindungan serta memberikan kontribusi pada kumpulan kecocokan hash untuk meningkatkan kemampuan kami dalam mendeteksi CSAM yang diketahui. Dengan pengklasifikasi kami, Google membuat Content Safety API, yang kami sediakan kepada entitas lain untuk membantu mereka memprioritaskan konten yang melanggar agar dilakukan peninjauan manual. 


CSAI Match dan Content Safety API tersedia bagi entitas memenuhi syarat yang ingin melawan penyalahgunaan di platform mereka. Harap lihat detail selengkapnya di sini.

Apa yang dilakukan Google saat mendeteksi CSAM di platformnya?

Saat kami mendeteksi CSAM di platform kami, kami akan menghapusnya, membuat laporan “CyberTipline” ke NCMEC, dan, bergantung pada sifat dan tingkat keparahan pelanggaran, kami dapat memberikan peringatan, membatasi akses akun ke produk atau layanan Google tertentu, atau menonaktifkan Akun Google yang terkait. Kami juga dapat menerapkan peninjauan lebih lanjut terhadap Akun Google tersebut untuk mengidentifikasi CSAM lainnya dan/atau memastikan kami mempertimbangkan konteks yang relevan agar kami dapat dengan pasti mengambil tindakan penegakan kebijakan yang sesuai dan proporsional dalam kaitannya dengan materi yang diidentifikasi di Akun Google tersebut.

 

NCMEC berfungsi sebagai lembaga kliring dan pusat pelaporan komprehensif di Amerika Serikat untuk masalah yang berkaitan dengan eksploitasi anak. Setelah laporan diterima oleh NCMEC, mereka dapat meneruskannya ke lembaga penegak hukum di seluruh dunia.

Apa itu laporan CyberTipline dan informasi apa yang dicakup?

Setelah Google menemukan konten yang jelas-jelas merupakan CSAM, kami membuat laporan ke NCMEC. Laporan ini umumnya disebut sebagai laporan CyberTipLine, atau CyberTip. Selain itu, kami berupaya untuk mengidentifikasi kasus yang melibatkan pelecehan fisik terhadap anak-anak di bawah umur, produksi CSAM, atau perdagangan anak. Dalam kasus semacam itu, kami mengirimkan laporan CyberTip tambahan ke NCMEC untuk membantu memprioritaskan masalah tersebut. Laporan yang dikirimkan ke NCMEC dapat menyertakan informasi yang mengidentifikasi pengguna, korban di bawah umur, dan dapat menyertakan konten yang melanggar dan/atau data kontekstual lain yang membantu.

Berikut beberapa contoh dampak nyata dari laporan CyberTip yang telah dikirimkan Google. Contoh ini tidak lengkap dan hanya merupakan gambaran sekilas tentang berbagai laporan yang kami buat.  

  • CyberTip Google melaporkan berbagai CSAM yang melibatkan anak-anak sekolah dasar di kelas. Beberapa CSAM yang dilaporkan sebelumnya tidak teridentifikasi oleh Google dan tampaknya dibuat oleh pemegang Akun Google. NCMEC meneruskan laporan tersebut ke penegak hukum, yang berujung pada pengidentifikasian dan perlindungan dua anak di bawah umur yang ditunjukkan dalam gambar CSAM yang dilaporkan.  
  • CyberTip Google melaporkan permintaan dan pembuatan CSAM oleh pemegang akun. Dia meminta pembuatan beberapa video yang menggambarkan pelecehan fisik terhadap puluhan anak laki-laki di bawah umur dengan imbalan uang. NCMEC meneruskan laporan tersebut ke penegak hukum. Pemegang akun tersebut dihukum karena membuat CSAM dan puluhan anak diidentifikasi serta dilindungi dari pelecehan yang berkelanjutan.
  • CyberTip Google melaporkan satu konten CSAM yang diketahui, yang berujung pada penangkapan pemegang akun. Menurut penegak hukum, pemegang akun tersebut memiliki lebih banyak CSAM dan terlibat langsung dalam pelecehan fisik terhadap anak-anak di bawah umur yang diasuhnya serta menawarkan anak-anak tersebut kepada orang lain untuk dilecehkan.  Berkat upaya yang dilakukan Google, NCMEC, dan penegak hukum, tiga anak diselamatkan dari pelecehan seksual.
  • CyberTip Google melaporkan CSAM yang dibuat oleh pemegang Akun Google dan diminta dari anak-anak di bawah umur yang dihubunginya secara online. Pemegang akun tersebut kemudian ditangkap. Penegak hukum menetapkan bahwa dia menjabat sebagai tenaga medis profesional yang sepatutnya menjaga kepercayaan publik: dia menggunakan jabatan ini untuk melecehkan pasien yang dirawatnya dan dapat menghubungi langsung anak-anak di bawah umur secara online. Anak-anak ini diminta untuk membuat CSAM.

Bagaimana cara Google melawan risiko CSAM di bidang AI Generatif (GenAI)?

CSAM buatan AI atau gambar buatan komputer yang menampilkan pelecehan seksual terhadap anak-anak merupakan ancaman yang ditangani Google dengan sangat serius. Upaya kami untuk mendeteksi, menghapus, dan melaporkan CSAM selalu meliputi konten melanggar yang melibatkan anak di bawah umur sungguhan, gambar anak di bawah umur yang dimodifikasi dan dapat diidentifikasi yang melakukan perilaku seksual vulgar, serta gambar buatan komputer yang tidak dapat dibedakan dengan anak di bawah umur sungguhan yang melakukan perilaku tersebut.

Google sangat menekankan keselamatan anak saat membuat model dan produk GenAI sendiri. Kami mengikuti prinsip-prinsip Google terkait AI Generatif yang Bertanggung Jawab dalam melindungi semua model dan layanan Google yang tersedia untuk publik dan dibuat berdasarkan model ini.

Kami men-deploy berbagai perlindungan keselamatan anak untuk model dan produk GenAI kami. Hal ini dapat mencakup perlindungan terhadap keberadaan CSAM dalam data pelatihan yang mendasari model kami, terhadap perintah untuk mencari dan memproduksi CSAM, serta terhadap output yang melanggar.  Kami juga melakukan pengujian keselamatan anak secara ketat pada model kami sebelum peluncuran ke publik untuk memahami dan memitigasi kemungkinan CSAM dibuat.

Kami juga bekerja sama dengan pihak lain dalam ekosistem keselamatan anak - termasuk Technology Coalition dan LSM untuk keselamatan anak - untuk membagikan dan memahami praktik terbaik seiring dengan berkembangnya teknologi ini.

Apa yang dilakukan Google untuk mencegah pengguna mencari CSAM di Penelusuran?

Google menerapkan prinsip keamanan dari desain untuk mencegah pengguna mencari CSAM di Penelusuran. Kami memiliki kebijakan untuk memblokir hasil penelusuran yang mengarah ke materi pelecehan seksual terhadap anak-anak, yang tampaknya mengorbankan, membahayakan, atau mengeksploitasi anak-anak secara seksual. Kami terus memperbarui algoritma kami untuk melawan ancaman yang semakin berkembang ini. Kami menerapkan perlindungan ekstra untuk penelusuran yang terdeteksi sedang mencari konten CSAM. Kami memfilter hasil yang menampilkan konten seksual vulgar jika kueri penelusuran tampaknya mencari CSAM. Untuk kueri yang mencari konten dewasa vulgar, Penelusuran tidak akan menampilkan gambar yang menyertakan anak-anak, untuk memutus pengaitan antara anak-anak dan konten seksual. Selain menghapus konten CSAM dari indeks Penelusuran saat teridentifikasi, kami juga mendemosikan semua konten dari situs yang memiliki proporsi konten CSAM yang tinggi. Di banyak negara, saat pengguna memasukkan kueri yang secara jelas terkait CSAM, akan muncul peringatan penting bahwa gambar pelecehan seksual terhadap anak-anak bersifat ilegal. Peringatan ini diikuti dengan informasi tentang cara melaporkan konten ini ke organisasi tepercaya. Saat peringatan tersebut muncul, kami mendapati bahwa pengguna cenderung tidak meneruskan penelusuran untuk materi ini.

Bagaimana kontribusi Google pada ekosistem keamanan anak untuk melawan CSAM?

Tim keselamatan anak di Google membuat teknologi yang dapat secara akurat mendeteksi, melaporkan, dan menghapus CSAM untuk melindungi pengguna kami serta mencegah pelecehan anak di produk Google. Kami mengembangkan Toolkit Keselamatan Anak untuk memastikan ekosistem yang lebih luas juga memiliki akses ke teknologi canggih ini, dan untuk membantu mencegah penyebaran materi pelecehan seksual terhadap anak-anak secara online. Selain itu, kami menyediakan Hash Matching API Google bagi NCMEC untuk membantu mereka memprioritaskan dan meninjau laporan CyberTipline secara lebih efisien. Dengan ini, mereka dapat berfokus pada laporan yang terkait dengan anak-anak yang membutuhkan bantuan segera. 

Kami juga membagikan sinyal pelecehan seksual dan eksploitasi terhadap anak-anak untuk memungkinkan penghapusan CSAM dari ekosistem yang lebih luas. Kami membagikan jutaan hash CSAM ke database hash industri NCMEC, sehingga penyedia lain juga dapat mengakses dan menggunakan hash ini. Kami juga bergabung dalam Project Lantern, sebuah program yang memungkinkan perusahaan teknologi membagikan sinyal yang relevan untuk memberantas eksploitasi dan pelecehan seksual di internet dengan cara yang aman dan bertanggung jawab, serta memahami bahwa pelecehan ini dapat disebarkan melalui berbagai platform dan layanan.

Kami juga merupakan anggota aktif dari beberapa koalisi, seperti Technology Coalition, WeProtect Global Alliance, dan INHOPE, yang menyatukan berbagai perusahaan dan LSM untuk mengembangkan solusi yang dapat menghentikan pertukaran CSAM secara online dan mencegah eksploitasi seksual terhadap anak-anak. Google memprioritaskan partisipasi dalam koalisi ini, dan dalam kerja sama kami dengan LSM seperti NCMEC dan Thorn, kami berbagi keahlian, menjelajahi praktik terbaik, dan mempelajari lebih lanjut ancaman terbaru terkait masalah utama keselamatan anak.

Bagaimana cara lembaga pemerintah mengirimkan permintaan hukum ke Google sehubungan dengan CyberTip?

Setelah laporan diterima oleh NCMEC, mereka dapat meneruskannya ke lembaga penegak hukum di seluruh dunia. Penegakan hukum kemudian dapat mengirim proses hukum ke Google untuk meminta informasi lebih lanjut (Sistem Permintaan Penegak Hukum - LERS). Untuk memfasilitasi permintaan semacam itu, Google menyediakan sistem online yang memungkinkan lembaga pemerintah terverifikasi mengirimkan permintaan untuk informasi lebih lanjut dengan aman. Selanjutnya, lembaga tersebut dapat melihat status permintaan yang telah dikirim menggunakan sistem online ini, dan pada akhirnya mendownload respons Google terhadap permintaan mereka. Untuk mengetahui informasi selengkapnya tentang LERS atau untuk menyiapkan akun LERS, harap kunjungi lers.google.com. Untuk mengetahui informasi lebih lanjut, lihat kebijakan kami tentang cara Google menangani permintaan pemerintah terkait informasi pengguna.

 Bagaimana cara melaporkan dugaan CSAM?

Jika Anda menemukan link, situs, atau konten apa pun yang merupakan CSAM, Anda dapat melaporkannya ke polisi, NCMEC, atau organisasi yang sesuai di wilayah Anda. Jika Anda melihat atau mendapati konten atau perilaku yang tidak pantas terhadap anak-anak di produk Google, ada banyak cara untuk melaporkannya kepada kami, termasuk dengan melaporkan tindakan yang membahayakan anak (misalnya pembujuk-rayuan, pemerasan seksual, bentuk eksploitasi seksual lainnya terhadap anak) yang terjadi di produk Google. Anda dapat membantu mencegah orang menghubungi anak Anda di produk Google dan memfilter konten yang dilihat anak Anda dengan mengelola setelan Akun Google anak Anda.

Tim mana yang meninjau laporan CSAM?

Peninjauan manual adalah bagian penting dari upaya berkelanjutan kami dalam melawan CSAM. Anggota tim kami memiliki keahlian mendalam di bidang ini, dengan latar belakang disiplin ilmu seperti hukum, advokasi dan keselamatan anak, pekerjaan sosial, investigasi cyber, dan lainnya. Mereka menerima pelatihan khusus tentang cakupan kebijakan kami dan apa saja yang ditetapkan sebagai materi pelecehan seksual terhadap anak-anak menurut hukum. Tim peninjau menerima pelatihan khusus serta dukungan kesehatan mental. Untuk mempelajari lebih lanjut pendekatan Google terhadap moderasi konten, termasuk cara kami mendukung kesehatan mental peninjau, lihat di sini.

Kapan jangka waktu yang dicakup dalam laporan ini?

Metrik yang ditampilkan di sini menunjukkan data yang dikumpulkan dari pukul 00.00 PST pada 1 Januari hingga 23.59 PDT pada 30 Juni serta pukul 00.00 PDT pada 1 Juli hingga pukul 23.59 PST pada 31 Desember, kecuali jika dinyatakan lain.
Menu utama
5828319238081942119
true
Pusat Bantuan Penelusuran
true
true
true
false
false