Apa itu CSAM?
Bagaimana pendekatan Google dalam melawan CSAM?
Bagaimana cara Google mengidentifikasi CSAM di platformnya?
Kami banyak berinvestasi dalam melawan eksploitasi seksual terhadap anak-anak secara online dan menggunakan teknologi untuk mencegah, mendeteksi, serta menghapus CSAM dari platform kami. Selain mengandalkan laporan yang dikirimkan oleh pengguna kami dan pihak ketiga seperti LSM, upaya ini juga mencakup deteksi otomatis dan peninjauan manual. Kami men-deploy pencocokan hash, termasuk CSAI Match YouTube, untuk mendeteksi CSAM yang dikenal. Kami juga men-deploy pengklasifikasi machine learning untuk menemukan CSAM yang belum pernah terlihat, yang kemudian dikonfirmasi oleh tim peninjau spesialis kami. Deteksi CSAM yang belum pernah terlihat ini dapat membantu ekosistem keselamatan anak dalam berbagai cara, termasuk mengidentifikasi korban anak-anak yang membutuhkan perlindungan serta memberikan kontribusi pada kumpulan kecocokan hash untuk meningkatkan kemampuan kami dalam mendeteksi CSAM yang diketahui. Dengan pengklasifikasi kami, Google membuat Content Safety API, yang kami sediakan kepada entitas lain untuk membantu mereka memprioritaskan konten yang melanggar agar dilakukan peninjauan manual.
CSAI Match dan Content Safety API tersedia bagi entitas memenuhi syarat yang ingin melawan penyalahgunaan di platform mereka. Harap lihat detail selengkapnya di sini.
Apa yang dilakukan Google saat mendeteksi CSAM di platformnya?
NCMEC berfungsi sebagai lembaga kliring dan pusat pelaporan komprehensif di Amerika Serikat untuk masalah yang berkaitan dengan eksploitasi anak. Setelah laporan diterima oleh NCMEC, mereka dapat meneruskannya ke lembaga penegak hukum di seluruh dunia.
Apa itu laporan CyberTipline dan informasi apa yang dicakup?
Setelah Google menemukan konten yang jelas-jelas merupakan CSAM, kami membuat laporan ke NCMEC. Laporan ini umumnya disebut sebagai laporan CyberTipLine, atau CyberTip. Selain itu, kami berupaya untuk mengidentifikasi kasus yang melibatkan pelecehan fisik terhadap anak-anak di bawah umur, produksi CSAM, atau perdagangan anak. Dalam kasus semacam itu, kami mengirimkan laporan CyberTip tambahan ke NCMEC untuk membantu memprioritaskan masalah tersebut. Laporan yang dikirimkan ke NCMEC dapat menyertakan informasi yang mengidentifikasi pengguna, korban di bawah umur, dan dapat menyertakan konten yang melanggar dan/atau data kontekstual lain yang membantu.
Berikut beberapa contoh dampak nyata dari laporan CyberTip yang telah dikirimkan Google. Contoh ini tidak lengkap dan hanya merupakan gambaran sekilas tentang berbagai laporan yang kami buat.
- CyberTip Google melaporkan berbagai CSAM yang melibatkan anak-anak sekolah dasar di kelas. Beberapa CSAM yang dilaporkan sebelumnya tidak teridentifikasi oleh Google dan tampaknya dibuat oleh pemegang Akun Google. NCMEC meneruskan laporan tersebut ke penegak hukum, yang berujung pada pengidentifikasian dan perlindungan dua anak di bawah umur yang ditunjukkan dalam gambar CSAM yang dilaporkan.
- CyberTip Google melaporkan permintaan dan pembuatan CSAM oleh pemegang akun. Dia meminta pembuatan beberapa video yang menggambarkan pelecehan fisik terhadap puluhan anak laki-laki di bawah umur dengan imbalan uang. NCMEC meneruskan laporan tersebut ke penegak hukum. Pemegang akun tersebut dihukum karena membuat CSAM dan puluhan anak diidentifikasi serta dilindungi dari pelecehan yang berkelanjutan.
- CyberTip Google melaporkan satu konten CSAM yang diketahui, yang berujung pada penangkapan pemegang akun. Menurut penegak hukum, pemegang akun tersebut memiliki lebih banyak CSAM dan terlibat langsung dalam pelecehan fisik terhadap anak-anak di bawah umur yang diasuhnya serta menawarkan anak-anak tersebut kepada orang lain untuk dilecehkan. Berkat upaya yang dilakukan Google, NCMEC, dan penegak hukum, tiga anak diselamatkan dari pelecehan seksual.
- CyberTip Google melaporkan CSAM yang dibuat oleh pemegang Akun Google dan diminta dari anak-anak di bawah umur yang dihubunginya secara online. Pemegang akun tersebut kemudian ditangkap. Penegak hukum menetapkan bahwa dia menjabat sebagai tenaga medis profesional yang sepatutnya menjaga kepercayaan publik: dia menggunakan jabatan ini untuk melecehkan pasien yang dirawatnya dan dapat menghubungi langsung anak-anak di bawah umur secara online. Anak-anak ini diminta untuk membuat CSAM.
Bagaimana cara Google melawan risiko CSAM di bidang AI Generatif (GenAI)?
CSAM buatan AI atau gambar buatan komputer yang menampilkan pelecehan seksual terhadap anak-anak merupakan ancaman yang ditangani Google dengan sangat serius. Upaya kami untuk mendeteksi, menghapus, dan melaporkan CSAM selalu meliputi konten melanggar yang melibatkan anak di bawah umur sungguhan, gambar anak di bawah umur yang dimodifikasi dan dapat diidentifikasi yang melakukan perilaku seksual vulgar, serta gambar buatan komputer yang tidak dapat dibedakan dengan anak di bawah umur sungguhan yang melakukan perilaku tersebut.
Google sangat menekankan keselamatan anak saat membuat model dan produk GenAI sendiri. Kami mengikuti prinsip-prinsip Google terkait AI Generatif yang Bertanggung Jawab dalam melindungi semua model dan layanan Google yang tersedia untuk publik dan dibuat berdasarkan model ini.
Kami men-deploy berbagai perlindungan keselamatan anak untuk model dan produk GenAI kami. Hal ini dapat mencakup perlindungan terhadap keberadaan CSAM dalam data pelatihan yang mendasari model kami, terhadap perintah untuk mencari dan memproduksi CSAM, serta terhadap output yang melanggar. Kami juga melakukan pengujian keselamatan anak secara ketat pada model kami sebelum peluncuran ke publik untuk memahami dan memitigasi kemungkinan CSAM dibuat.
Kami juga bekerja sama dengan pihak lain dalam ekosistem keselamatan anak - termasuk Technology Coalition dan LSM untuk keselamatan anak - untuk membagikan dan memahami praktik terbaik seiring dengan berkembangnya teknologi ini.
Apa yang dilakukan Google untuk mencegah pengguna mencari CSAM di Penelusuran?
Bagaimana kontribusi Google pada ekosistem keamanan anak untuk melawan CSAM?
Tim keselamatan anak di Google membuat teknologi yang dapat secara akurat mendeteksi, melaporkan, dan menghapus CSAM untuk melindungi pengguna kami serta mencegah pelecehan anak di produk Google. Kami mengembangkan Toolkit Keselamatan Anak untuk memastikan ekosistem yang lebih luas juga memiliki akses ke teknologi canggih ini, dan untuk membantu mencegah penyebaran materi pelecehan seksual terhadap anak-anak secara online. Selain itu, kami menyediakan Hash Matching API Google bagi NCMEC untuk membantu mereka memprioritaskan dan meninjau laporan CyberTipline secara lebih efisien. Dengan ini, mereka dapat berfokus pada laporan yang terkait dengan anak-anak yang membutuhkan bantuan segera.
Kami juga membagikan sinyal pelecehan seksual dan eksploitasi terhadap anak-anak untuk memungkinkan penghapusan CSAM dari ekosistem yang lebih luas. Kami membagikan jutaan hash CSAM ke database hash industri NCMEC, sehingga penyedia lain juga dapat mengakses dan menggunakan hash ini. Kami juga bergabung dalam Project Lantern, sebuah program yang memungkinkan perusahaan teknologi membagikan sinyal yang relevan untuk memberantas eksploitasi dan pelecehan seksual di internet dengan cara yang aman dan bertanggung jawab, serta memahami bahwa pelecehan ini dapat disebarkan melalui berbagai platform dan layanan.
Kami juga merupakan anggota aktif dari beberapa koalisi, seperti Technology Coalition, WeProtect Global Alliance, dan INHOPE, yang menyatukan berbagai perusahaan dan LSM untuk mengembangkan solusi yang dapat menghentikan pertukaran CSAM secara online dan mencegah eksploitasi seksual terhadap anak-anak. Google memprioritaskan partisipasi dalam koalisi ini, dan dalam kerja sama kami dengan LSM seperti NCMEC dan Thorn, kami berbagi keahlian, menjelajahi praktik terbaik, dan mempelajari lebih lanjut ancaman terbaru terkait masalah utama keselamatan anak.