CSAM nedir?
Google'ın CSAM ile mücadeleye yaklaşımı nedir?
Google, platformunda CSAM'yi nasıl tespit eder?
İnternette çocukların cinsel istismarıyla mücadele etmek için büyük yatırımlar yapıyor, platformlarımızda CSAM'nin yer almasını engellemek, mevcut CSAM'yi tespit edip kaldırmak için teknolojiden yararlanıyoruz. Bu kapsamda, otomatik tespit ve uzman incelemelerinin yanı sıra, kullanıcılarımızın ve STK'lar gibi üçüncü tarafların gönderdiği raporları kullanıyoruz. Bilinen CSAM'yi tespit etmek için YouTube'un CSAI Match özelliği de dahil olmak üzere karma eşleştirmeden yararlanıyoruz. Ayrıca daha önce hiç görülmemiş CSAM'yi keşfetmek için makine öğrenimi teknolojisini kullanan sınıflandırma işlevselliğinden yararlanırız. Bunlar daha sonra uzman inceleme ekiplerimiz tarafından onaylanır. Daha önce hiç görülmemiş CSAM'nin tespiti, çocuk güvenliği ekosistemine çeşitli faydalar sağlar. Örneğin, korunmaya muhtaç çocuk mağdurların belirlenmesine yardımcı olur ve hashset'e katkıda bulunarak bilinen CSAM'yi tespit etme kapasitemizi artırır. Google'ın kendi sınıflandırıcılarını kullanarak oluşturduğu İçerik Güvenliği API'sini, gerçek kişi tarafından yapılacak incelemeler için önceliklendirme katkısı sağlayacak şekilde başkalarının kullanımına sunarız.
Hem CSAI Match teknolojisi hem de İçerik Güvenliği API'si, platformlarında istismarla mücadele etmek isteyen, gerekli şartları sağlayan kuruluşlar tarafından kullanılabilir. Daha ayrıntılı bilgi için buraya bakabilirsiniz.
Google, platformunda CSAM tespit ettiğinde ne yapar?
NCMEC, Amerika Birleşik Devletleri'nde çocuk istismarı ile ilgili sorunlar konusunda başvurulan merkezi bir kuruluş ve kapsamlı bir bildirim merkezidir. NCMEC aldığı raporları dünyanın dört bir yanındaki kolluk kuvvetlerine iletebilir.
CyberTipline raporu nedir ve ne tür bilgiler içerir?
Google bariz bir CSAM olduğunu fark ettiğinde NCMEC'ye rapor gönderir. Bu raporlara genellikle CyberTipLine raporları veya CyberTips adı verilir. Buna ek olarak, reşit olmayan bir bireyin fiilen istismar edilmesi, CSAM türünde içerik üretimi veya çocuk kaçakçılığı ile ilgili durumları tespit etmeye çalışırız. Bu durumlarda, konuya öncelik verilmesini sağlamak için NCMEC'ye ek bir CyberTip raporu göndeririz. NCMEC'ye gönderilen raporlarda, kullanıcıyı ve küçük yaştaki mağduru tanımlayan bilgiler, ayrıca yasaları ihlal eden içerikler ve/veya bağlamla ilgili diğer faydalı veriler yer alabilir.
Google tarafından gönderilen CyberTip raporlarının gerçek dünyada nasıl etki yarattığıyla ilgili bazı örnekleri aşağıda bulabilirsiniz. Bu örnekler, hazırladığımız geniş rapor yelpazesi hakkında fikir verse de kapsamlı değildir.
- Bir Google CyberTip raporunda, sınıf ortamındaki ilkokul çocuklarının CSAM kapsamına giren çok sayıda görüntüsü bildiriliyordu. Bildirilen CSAM görüntülerinin bir kısmı daha önce Google tarafından tanımlanmamıştı ve Google Hesabı sahibi tarafından oluşturulduğu anlaşılıyordu. NCMEC'nin raporu kolluk kuvvetlerine iletmesinden sonra söz konusu CSAM görüntülerindeki iki küçük çocuk, kimlikleri belirlenerek koruma altına alındı.
- Bir Google CyberTip raporunda, para karşılığında düzinelerce erkek çocuğun fiilen istismar edildiği çok sayıda videonun çekilmesini talep eden bir hesap sahibinin CSAM türünde içerik ürettiği ve başkalarını buna teşvik ettiği bildiriliyordu. NCMEC, raporu kolluk kuvvetlerine iletti. Hesap sahibi, CSAM türünde içerik üretiminden hüküm giyerken düzinelerce çocuk, kimlikleri belirlenerek süregelen istismara karşı koruma altına alındı.
- Bir Google CyberTip raporunda, bilinen tek bir CSAM içeriği bildiriliyordu. Bu içerik, kolluk kuvvetlerine göre çok daha fazla CSAM içeriğine sahip olduğu tespit edilen ve bakımından sorumlu olduğu küçük çocukları doğrudan istismar etmekle kalmayıp başkalarının da istismar etmesine neden olan hesap sahibinin tutuklanmasını sağladı. Üç çocuk; Google, NCMEC ve kolluk kuvvetlerinin çalışmaları sonucunda cinsel istismardan kurtarıldı.
- Bir Google CyberTip raporunda, ilgili Google Hesabı sahibinin kendisinin CSM içerikler ürettiği ve internetten ulaştığı küçük çocuklara zorla bu tür içerikler ürettirdiği bildiriliyordu. Kolluk kuvvetleri, daha sonra tutuklanan hesap sahibinin tıp uzmanı olarak güvenilir bir konumda olduğunu belirledi. Kişi, bu konumunu kullanarak hastalarını istismar ediyor ve CSAM türünde içerik üretmeye zorladığı küçük çocuklara doğrudan internetten erişebiliyordu.
Google, üretken yapay zeka (GenAI) alanındaki CSAM riskleriyle nasıl mücadele ediyor?
Çocuklarla ilgili olarak bilgisayar tarafından üretilmiş cinsel istismar görüntüleri veya yapay zeka tarafından üretilmiş CSAM, Google'ın çok ciddiye aldığı tehditlerdir. CSAM içeriklerini tespit etme, kaldırma ve bildirme çalışmalarımız her zaman şu unsurları kapsar: küçük yaştaki gerçek kişilerin dahil olduğu yasalara aykırı içerikler, kimliği tespit edilebilir küçük yaştaki kişilerin müstehcen içerikli olacak şekilde değiştirilmiş görüntüleri, küçük yaştaki gerçek kişilerin bilgisayar tarafından üretilmiş son derece gerçekçi müstehcen görüntüleri.
Google kendi üretken yapay zeka modellerini ve ürünlerini geliştirirken çocukların güvenliğine büyük önem verir. Google'ın herkesin kullanımına sunulan modellerini ve bu modeller ışığında geliştirilen hizmetleri korumak için Google'ın Sorumlu Üretken Yapay Zeka ilkelerine uyarız.
Üretken yapay zeka modellerimizde ve ürünlerimizde, çocukların güvenliğini sağlamaya yönelik çeşitli koruma özellikleri kullanırız. Bu kapsamda, modellerimizi eğitmek için kullanılan verilerde CSAM'nin varlığına, CSAM içeriklerinin aranması ve üretilmesi ile ilgili istemlere, ayrıca yasalara aykırı çıkışlara karşı koruma özelliklerinden söz edebiliriz. Tüm bunlara ek olarak, CSAM içeriğinin üretilme olasılığını anlamak ve azaltmak için modellerimizi herkesin kullanımına sunmadan önce çocuk güvenliğiyle ilgili ayrıntılı testlere tabi tutarız.
Bu teknoloji gelişmeye devam ederken en iyi uygulamaları paylaşmak ve anlamak için çocuk güvenliği ekosistemindeki diğer aktörlerle de (ör. Technology Coalition ve çocuk güvenliği STK'ları) birlikte çalışırız.
Google, kullanıcıların Arama'da CSAM türündeki içerikleri aramasını nasıl engeller?
Google, çocuk güvenliği ekosisteminin CSAM ile mücadelesine nasıl katkıda bulunur?
Google’ın çocuk güvenliği ekibi hem kullanıcılarımızı korumak hem de çocukların Google ürünlerinde zarar görmesini önlemek için CSAM türündeki içerikleri doğru bir şekilde tespit eden, bildiren ve kaldıran teknolojiyi geliştirir. Ekosistemin Google dışındaki bileşenlerinin de bu teknolojiye erişmesini sağlamak ve çocukların cinsel istismarı nitelikli materyallerin internette yaygınlaşmasını önlemek için Çocuk Güvenliği Araç Seti'ni geliştirdik. Buna ek olarak, NCMEC'nin CyberTipline raporlarına öncelik verip daha verimli bir şekilde değerlendirmesine yardımcı olarak acilen yardıma muhtaç çocuklarla ilgili bu raporlara odaklanmasını sağlamak için Google tarafından geliştirilen Hash Matching API'yi de kullanımına sunuyoruz.
Ayrıca, CSAM içeriğinin ekosistemin diğer bileşenlerinden kaldırılmasını sağlamak için çocuğun cinsel istismarı ve çocuk istismarı ile ilgili sinyalleri paylaşıyoruz. Diğer sağlayıcıların da erişip kullanabilmesi için milyonlarca CSAM karmasını NCMEC'nin sektör karması veritabanı ile paylaşıyoruz. Bu istismarın çeşitli platformlarda ve hizmetlerde ortaya çıkabileceğinin farkındayız. Bu nedenle, teknoloji şirketlerinin internette cinsel istismar ve istismarla güvenli ve sorumlu bir şekilde mücadele etmek için ilgili sinyalleri paylaşmasına olanak tanıyan Project Lantern programına da dahil olduk.
İnternette CSAM türündeki içeriklerin paylaşılmasını ve çocukların cinsel istismarını önlemeye yönelik çözümler geliştirmek için şirketlerle STK'ları bir araya getiren birçok birliğin (ör. Technology Coalition, WeProtect Global Alliance, INHOPE) de aktif üyesiyiz. Google bu birliklere katılmaya öncelik verir. NCMEC ve Thorn gibi STK'larla çalışmalarımızda uzmanlığımızı paylaşır, en iyi uygulamaları inceler ve çocukların güvenliğiyle ilgili önemli sorunlara dair en güncel tehditler hakkında daha fazla bilgi ediniriz.