Google'ın, İnternette Çocukların Cinsel İstismarı Nitelikli Materyallerle (CSAM) Mücadele Çalışmaları Hakkında Sık Sorulan Sorular

CSAM nedir?

İngilizce "Child Sexual Abuse Material" ifadesinin kısaltması olan CSAM, çocukların cinsel istismarı nitelikli materyal anlamına gelir. Fotoğraflar, videolar ve bilgisayar tarafından oluşturulan görüntüler dahil ancak bunlarla sınırlı olmamak üzere, reşit olmayan bir bireyin müstehcen görüntülerinin kullanıldığı her türlü görsel öğe, CSAM kapsamına girer. CSAM'nin çocuk çıplaklığıyla aynı şey olmadığının farkındayız. Politikalarımız ve sistemlerimiz, doğası gereği cinsellik içermeyen ve CSAM kapsamına girmeyen iyi niyetli görüntüleri (ör. küvette veya arka bahçede oynayan bir çocuk) tanımlayarak çocukların cinsel istismara uğradığı ya da küresel yasalara aykırı bir şekilde cinsel organların ve mahrem bölgelerin şehvet unsuru haline getirildiği görüntülerden ayırt edecek şekilde özel olarak tasarlanmıştır. Bunun yanı sıra, çocukların ya da temsillerinin yer aldığı başka tür müstehcen veya kötü amaçlı görüntüler (ör. çocuğun cinsel istismarını çizgi film karakterleriyle tasvir etme veya mizaha alet etme girişimleri) de vardır. Bu görüntüler de küresel yasalara aykırı olabilir.

Google'ın CSAM ile mücadeleye yaklaşımı nedir?

Google, internette CSAM ile mücadele etmeyi ve platformlarının bu materyali oluşturmak, saklamak veya dağıtmak için kullanılmasını önlemeyi kendine görev edinmiştir. Çocukların cinsel istismarına yönelik içerik ve davranışların tespit edilmesi, engellenmesi, kaldırılması, bildirilmesi için teknoloji, insan kaynağı ve zaman gibi önemli kaynakları seferber ediyoruz. Çocukları ve aileleri korumaya yönelik çalışmalarımızla ilgili daha fazla bilgi edinmek için Google Güvenlik Merkezi, YouTube’un Topluluk Kuralları, Çocukları Koruma Sitemiz ve CSAM'yi nasıl tespit ettiğimiz, kaldırdığımız ve bildirdiğimizle ilgili blogumuza göz atabilirsiniz.

Google, platformunda CSAM'yi nasıl tespit eder?

İnternette çocukların cinsel istismarıyla mücadele etmek için büyük yatırımlar yapıyor, platformlarımızda CSAM'nin yer almasını engellemek, mevcut CSAM'yi tespit edip kaldırmak için teknolojiden yararlanıyoruz. Bu kapsamda, otomatik tespit ve uzman incelemelerinin yanı sıra, kullanıcılarımızın ve STK'lar gibi üçüncü tarafların gönderdiği raporları kullanıyoruz. Bilinen CSAM'yi tespit etmek için YouTube'un CSAI Match özelliği de dahil olmak üzere karma eşleştirmeden yararlanıyoruz. Ayrıca daha önce hiç görülmemiş CSAM'yi keşfetmek için makine öğrenimi teknolojisini kullanan sınıflandırma işlevselliğinden yararlanırız. Bunlar daha sonra uzman inceleme ekiplerimiz tarafından onaylanır. Daha önce hiç görülmemiş CSAM'nin tespiti, çocuk güvenliği ekosistemine çeşitli faydalar sağlar. Örneğin, korunmaya muhtaç çocuk mağdurların belirlenmesine yardımcı olur ve hashset'e katkıda bulunarak bilinen CSAM'yi tespit etme kapasitemizi artırır. Google'ın kendi sınıflandırıcılarını kullanarak oluşturduğu İçerik Güvenliği API'sini, gerçek kişi tarafından yapılacak incelemeler için önceliklendirme katkısı sağlayacak şekilde başkalarının kullanımına sunarız.


Hem CSAI Match teknolojisi hem de İçerik Güvenliği API'si, platformlarında istismarla mücadele etmek isteyen, gerekli şartları sağlayan kuruluşlar tarafından kullanılabilir. Daha ayrıntılı bilgi için buraya bakabilirsiniz.

Google, platformunda CSAM tespit ettiğinde ne yapar?

Platformlarımızda CSAM tespit ettiğimizde içeriği kaldırıp NCMEC'ye "CyberTipline" (Siber İhbar) raporu göndeririz. Ayrıca, ihlalin niteliğine ve ciddiyetine bağlı olarak uyarıda bulunabilir, hesabın belirli Google ürün veya hizmetlerine erişimini sınırlandırabilir ya da Google Hesabı'nı devre dışı bırakabiliriz. Ayrıca, Google Hesabı'nı daha ayrıntılı incelemeye tabi tutabiliriz. Burada amaç, başka CSAM içeriği olup olmadığını öğrenmek ve/veya Google Hesabı'nda tespit edilen materyal konusunda uygun ve orantılı yaptırım işlemi uygulamak için ilgili bağlamı dikkate aldığımızdan emin olmaktır.

 

NCMEC, Amerika Birleşik Devletleri'nde çocuk istismarı ile ilgili sorunlar konusunda başvurulan merkezi bir kuruluş ve kapsamlı bir bildirim merkezidir. NCMEC aldığı raporları dünyanın dört bir yanındaki kolluk kuvvetlerine iletebilir.

CyberTipline raporu nedir ve ne tür bilgiler içerir?

Google bariz bir CSAM olduğunu fark ettiğinde NCMEC'ye rapor gönderir. Bu raporlara genellikle CyberTipLine raporları veya CyberTips adı verilir. Buna ek olarak, reşit olmayan bir bireyin fiilen istismar edilmesi, CSAM türünde içerik üretimi veya çocuk kaçakçılığı ile ilgili durumları tespit etmeye çalışırız. Bu durumlarda, konuya öncelik verilmesini sağlamak için NCMEC'ye ek bir CyberTip raporu göndeririz. NCMEC'ye gönderilen raporlarda, kullanıcıyı ve küçük yaştaki mağduru tanımlayan bilgiler, ayrıca yasaları ihlal eden içerikler ve/veya bağlamla ilgili diğer faydalı veriler yer alabilir.

Google tarafından gönderilen CyberTip raporlarının gerçek dünyada nasıl etki yarattığıyla ilgili bazı örnekleri aşağıda bulabilirsiniz. Bu örnekler, hazırladığımız geniş rapor yelpazesi hakkında fikir verse de kapsamlı değildir.  

  • Bir Google CyberTip raporunda, sınıf ortamındaki ilkokul çocuklarının CSAM kapsamına giren çok sayıda görüntüsü bildiriliyordu. Bildirilen CSAM görüntülerinin bir kısmı daha önce Google tarafından tanımlanmamıştı ve Google Hesabı sahibi tarafından oluşturulduğu anlaşılıyordu. NCMEC'nin raporu kolluk kuvvetlerine iletmesinden sonra söz konusu CSAM görüntülerindeki iki küçük çocuk, kimlikleri belirlenerek koruma altına alındı.  
  • Bir Google CyberTip raporunda, para karşılığında düzinelerce erkek çocuğun fiilen istismar edildiği çok sayıda videonun çekilmesini talep eden bir hesap sahibinin CSAM türünde içerik ürettiği ve başkalarını buna teşvik ettiği bildiriliyordu. NCMEC, raporu kolluk kuvvetlerine iletti. Hesap sahibi, CSAM türünde içerik üretiminden hüküm giyerken düzinelerce çocuk, kimlikleri belirlenerek süregelen istismara karşı koruma altına alındı.
  • Bir Google CyberTip raporunda, bilinen tek bir CSAM içeriği bildiriliyordu. Bu içerik, kolluk kuvvetlerine göre çok daha fazla CSAM içeriğine sahip olduğu tespit edilen ve bakımından sorumlu olduğu küçük çocukları doğrudan istismar etmekle kalmayıp başkalarının da istismar etmesine neden olan hesap sahibinin tutuklanmasını sağladı. Üç çocuk; Google, NCMEC ve kolluk kuvvetlerinin çalışmaları sonucunda cinsel istismardan kurtarıldı.
  • Bir Google CyberTip raporunda, ilgili Google Hesabı sahibinin kendisinin CSM içerikler ürettiği ve internetten ulaştığı küçük çocuklara zorla bu tür içerikler ürettirdiği bildiriliyordu. Kolluk kuvvetleri, daha sonra tutuklanan hesap sahibinin tıp uzmanı olarak güvenilir bir konumda olduğunu belirledi. Kişi, bu konumunu kullanarak hastalarını istismar ediyor ve CSAM türünde içerik üretmeye zorladığı küçük çocuklara doğrudan internetten erişebiliyordu.

Google, üretken yapay zeka (GenAI) alanındaki CSAM riskleriyle nasıl mücadele ediyor?

Çocuklarla ilgili olarak bilgisayar tarafından üretilmiş cinsel istismar görüntüleri veya yapay zeka tarafından üretilmiş CSAM, Google'ın çok ciddiye aldığı tehditlerdir. CSAM içeriklerini tespit etme, kaldırma ve bildirme çalışmalarımız her zaman şu unsurları kapsar: küçük yaştaki gerçek kişilerin dahil olduğu yasalara aykırı içerikler, kimliği tespit edilebilir küçük yaştaki kişilerin müstehcen içerikli olacak şekilde değiştirilmiş görüntüleri, küçük yaştaki gerçek kişilerin bilgisayar tarafından üretilmiş son derece gerçekçi müstehcen görüntüleri.

Google kendi üretken yapay zeka modellerini ve ürünlerini geliştirirken çocukların güvenliğine büyük önem verir. Google'ın herkesin kullanımına sunulan modellerini ve bu modeller ışığında geliştirilen hizmetleri korumak için Google'ın Sorumlu Üretken Yapay Zeka ilkelerine uyarız.

Üretken yapay zeka modellerimizde ve ürünlerimizde, çocukların güvenliğini sağlamaya yönelik çeşitli koruma özellikleri kullanırız. Bu kapsamda, modellerimizi eğitmek için kullanılan verilerde CSAM'nin varlığına, CSAM içeriklerinin aranması ve üretilmesi ile ilgili istemlere, ayrıca yasalara aykırı çıkışlara karşı koruma özelliklerinden söz edebiliriz. Tüm bunlara ek olarak, CSAM içeriğinin üretilme olasılığını anlamak ve azaltmak için modellerimizi herkesin kullanımına sunmadan önce çocuk güvenliğiyle ilgili ayrıntılı testlere tabi tutarız.

Bu teknoloji gelişmeye devam ederken en iyi uygulamaları paylaşmak ve anlamak için çocuk güvenliği ekosistemindeki diğer aktörlerle de (ör. Technology Coalition ve çocuk güvenliği STK'ları) birlikte çalışırız.

Google, kullanıcıların Arama'da CSAM türündeki içerikleri aramasını nasıl engeller?

Google, kullanıcıların Arama'da CSAM türündeki içerikleri aramasını engellemek için tasarımdan gelen güvenlik ilkelerini uygular. Politikamız gereği, çocukları cinsel olarak mağdur ettiği, tehlikeye attığı veya başka bir şekilde istismar ettiği anlaşılan çocukların cinsel istismarı nitelikli materyallere yönlendiren arama sonuçlarını engelleriz. Sürekli şekil değiştiren bu tehditlerle mücadele etmek için algoritmalarımızı düzenli olarak güncelleriz. Tespit edilen CSAM içeriklerini her zaman kaldırırız. Ayrıca, yüksek oranda CSAM içeriği bulunan sitelerdeki tüm içeriklerin sıralamasını düşürürüz. CSAM türündeki içeriklerle ilgili aramalara ekstra koruma özellikleri uygularız. Arama sorgusunun CSAM türündeki içeriklerle ilgili olduğu anlaşılırsa müstehcen sonuçları filtreleriz. Arama, yetişkinlerin yer aldığı uygunsuz içeriklerle ilgili sorgularda ise çocukların bulunduğu görüntüleri döndürmez. Böylece, çocukların cinsel içeriklerle ilişkilendirilmesinin önüne geçilmiş olur. Birçok ülkede, CSAM ile alakalı olduğu açıkça anlaşılan sorgular giren kullanıcılara belirgin bir uyarı gösterilir. Bu uyarıda, içinde çocukların bulunduğu cinsel içeriklerin yasa dışı olduğu belirtilir ve bu tür içeriklerin güvenilir kuruluşlara nasıl bildirileceği hakkında bilgi verilir. Bu uyarıların gösterildiği kullanıcıların bu tür içerikleri aramaya devam etme eğiliminin azaldığı tespit edilmiştir.

Google, çocuk güvenliği ekosisteminin CSAM ile mücadelesine nasıl katkıda bulunur?

Google’ın çocuk güvenliği ekibi hem kullanıcılarımızı korumak hem de çocukların Google ürünlerinde zarar görmesini önlemek için CSAM türündeki içerikleri doğru bir şekilde tespit eden, bildiren ve kaldıran teknolojiyi geliştirir. Ekosistemin Google dışındaki bileşenlerinin de bu teknolojiye erişmesini sağlamak ve çocukların cinsel istismarı nitelikli materyallerin internette yaygınlaşmasını önlemek için Çocuk Güvenliği Araç Seti'ni geliştirdik. Buna ek olarak, NCMEC'nin CyberTipline raporlarına öncelik verip daha verimli bir şekilde değerlendirmesine yardımcı olarak acilen yardıma muhtaç çocuklarla ilgili bu raporlara odaklanmasını sağlamak için Google tarafından geliştirilen Hash Matching API'yi de kullanımına sunuyoruz.

Ayrıca, CSAM içeriğinin ekosistemin diğer bileşenlerinden kaldırılmasını sağlamak için çocuğun cinsel istismarı ve çocuk istismarı ile ilgili sinyalleri paylaşıyoruz. Diğer sağlayıcıların da erişip kullanabilmesi için milyonlarca CSAM karmasını NCMEC'nin sektör karması veritabanı ile paylaşıyoruz. Bu istismarın çeşitli platformlarda ve hizmetlerde ortaya çıkabileceğinin farkındayız. Bu nedenle, teknoloji şirketlerinin internette cinsel istismar ve istismarla güvenli ve sorumlu bir şekilde mücadele etmek için ilgili sinyalleri paylaşmasına olanak tanıyan Project Lantern programına da dahil olduk.

İnternette CSAM türündeki içeriklerin paylaşılmasını ve çocukların cinsel istismarını önlemeye yönelik çözümler geliştirmek için şirketlerle STK'ları bir araya getiren birçok birliğin (ör. Technology Coalition, WeProtect Global Alliance, INHOPE) de aktif üyesiyiz. Google bu birliklere katılmaya öncelik verir. NCMEC ve Thorn gibi STK'larla çalışmalarımızda uzmanlığımızı paylaşır, en iyi uygulamaları inceler ve çocukların güvenliğiyle ilgili önemli sorunlara dair en güncel tehditler hakkında daha fazla bilgi ediniriz.

Devlet kurumları, CyberTip ile ilişkili yasal talepleri Google'a nasıl gönderebilir?

NCMEC aldığı raporları dünyanın dört bir yanındaki kolluk kuvvetlerine iletebilir. Emniyet kuvvetleri de daha fazla bilgi almak için Google'a yasal talep gönderebilir (Emniyet Kuvvetleri Talep Sistemi - LERS). Google, bu tür taleplerin kolayca iletilebilmesi için internet üzerinden bir sistem sağlar. Doğrulanmış devlet kurumları bu sistemi kullanarak güvenli bir şekilde daha fazla bilgi talebinde bulunabilir. Kolluk kuvvetleri daha sonra internet üzerinden sağlanan bu sistemi kullanarak gönderilen taleplerin durumunu görüntüleyebilir ve Google'ın talebe verdiği yanıtı indirebilir. LERS hakkında daha fazla bilgi edinmek veya LERS hesabı oluşturmak için lütfen lers.google.com adresini ziyaret edin. Ayrıntılı bilgi için Google'ın resmi makamların kullanıcı bilgilerine dair taleplerini nasıl ele aldığı ile ilgili politikalarımızı inceleyin.

CSAM olduğundan şüphelenilen içerikleri nasıl bildirebilirim?

CSAM olan bir bağlantı, web sitesi veya içerikle karşılaşırsanız bunu polise, NCMEC'ye veya bulunduğunuz bölgedeki ilgili kuruluşa bildirebilirsiniz. Google ürünlerinde çocuklara yönelik uygunsuz içerik veya davranış görür ya da yaşarsanız bu durumu bize bildirmek için farklı yöntemler kullanabilirsiniz. Örneğin, Google ürünlerinde çocukları tehlikeye atmaya ilişkin suçları (ör. çocuk tacizine yönelik girişimler, cinsel amaçlı veya cinsel içerik kullanılarak yapılan şantaj, çocukların diğer şekillerde cinsel istismarı) bildirebilirsiniz. Google ürünlerinde diğer kullanıcıların çocuğunuzla iletişim kurmasını engellemek ve çocuğunuzun göreceği içerikleri filtrelemek için Google Hesabı ayarlarını yönetebilirsiniz.

CSAM raporlarını hangi ekipler inceler?

Gerçek kişi tarafından yapılan incelemeler, CSAM ile mücadele kapsamındaki çalışmalarımızın önemli bir parçasıdır. Bu çalışmalarda; hukuk, çocuk güvenliği ve avukatlığı, sosyal hizmetler ve siber incelemeler gibi farklı alanlarda tecrübeli ekip üyelerimizin uzmanlığından yararlanırız. Ekip üyelerimiz hem politikamızın kapsamı hem de yasal açıdan hangi içeriklerin çocukların cinsel istismarı nitelikli materyal olarak kabul edildiği hakkında özel eğitimden geçmiştir. Özel eğitimden geçen inceleme ekipleri ruh sağlıklarını korumayla ilgili destek alır. İncelemecilerin ruh sağlığını desteklemek amacıyla yapılanlar da dahil olmak üzere Google'ın içerik moderasyonu konusundaki yaklaşımı hakkında daha fazla bilgi edinmek için buraya bakabilirsiniz.

Bu rapor hangi dönemi kapsar?

Burada sunulan metrikler, aksi belirtilmediği sürece, 1 Ocak günü saat 12:00'den (PST) 30 Haziran günü saat 23:59'a (PDT) ve 1 Temmuz günü saat 12:00'den (PDT) 31 Aralık günü saat 23:59'a (PST) kadar toplanan verileri temsil eder.
Ana menü
5535542055614746258
true
Yardım Merkezinde Arayın
true
true
true
false
false