پرسشگان مربوط به تلاش‌های Google برای مبارزه با محتوای کودک‌آزاری جنسی در فضای آنلاین

CSAM چیست؟

CSAM مخفف «محتوای کودک‌آزاری جنسی» است. این نوع محتوا هرگونه تصویرگری بصری را دربر می‌گیرد که شامل، اما نه محدود به عکس، ویدیو، و تصاویر تولیدشده با رایانه است که از افراد خردسال برای انجام رفتارهای صریح جنسی استفاده می‌کند. ما تشخیص می‌دهیم که CSAM همان برهنگی کودک نیست، و خط‌مشی‌ها و سیستم‌های ما به‌طور خاصی طراحی شده‌اند تا تصاویر بی‌خطر مثل بازی کودک در وان حمام یا حیاط که ماهیت جنسی ندارد و CSAM نیست را از تصاویری که شامل آزار جنسی کودک یا نمایش شهوت‌انگیز اندام تناسلی یا نواحی خصوصی با نقض قوانین جهانی است تشخیص دهند و ازهم متمایز کنند. علاوه‌براین، انواع دیگری از تصاویر شهوت‌انگیز یا بهره‌جویانه وجود دارد که شامل کودکان می‌شود یا آن‌ها را نشان می‌دهد، مانند تصاویر کارتونی از کودک‌آزاری جنسی یا تلاش برای نمایش فکاهی بهره‌کشی جنسی از کودکان. این تصاویر ممکن است ناقض قوانین جهانی نیز باشد.

رویکرد Google در مبارزه با CSAM چیست؟

‫Google متعهد به مبارزه با CSAM در فضای آنلاین و جلوگیری از استفاده از پلاتفرم‌های خود برای ایجاد، ذخیره‌سازی، و توزیع چنین محتوایی است. ما منابع قابل‌ملاحظه‌ای از فناوری، افراد، و زمان را به شناسایی، بازداری، حذف، و گزارش محتوا و رفتار بهره‌کشی جنسی از کودکان اختصاص داده‌ایم. برای اطلاعات بیشتر درباره تلاش‌های ما در راستای حفاظت از کودکان و خانواده‌ها، به مرکز ایمنی Google، دستورالعمل‌های انجمن YouTube، سایت محافظت از کودکان ما، و وبلاگ ما درباره چگونگی شناسایی، حذف، و گزارش CSAM مراجعه کنید.

‫Google چگونه CSAM را در پلاتفرم خود شناسایی می‌کند؟

ما سرمایه‌گذاری سنگینی برای مبارزه با بهره‌کشی جنسی از کودکان در فضای آنلاین می‌کنیم و برای بازداری، شناسایی، و حذف CSAM در پلاتفرم‌های خودمان از فناوری بهره می‌گیریم. این شامل شناسایی خودکار و بازبینی انسانی، و همچنین اتکا به گزارش‌های ارائه‌شده از کاربرانمان و اشخاص ثالث مثل سازمان‌های مردم‌نهاد می‌شود. ما با اجرای انطباق درهم‌سازی، ازجمله فناوری CSAI Match (تصاویر منطبق با سوءاستفاده جنسی از کودکان) در YouTube، موارد شناخته‌شده CSAM را شناسایی می‌کنیم.  ما همچنین با به‌کارگیری طبقه‌بندهای یادگیری ماشینی، موارد CSAM قبلاً دیده‌نشده را کشف می‌کنیم که بعداً تیم‌های متخصص بازبینی ما نیز آن‌ها را تأیید می‌کنند. شناسایی موارد CSAM تابه‌حال دیده‌نشده به روش‌های متعددی به بوم‌سازگان ایمنی کودک کمک می‌کند، ازجمله شناسایی کودکان قربانی که نیاز به حفاظت دارند و کمک به مجموعه درهم‌سازی برای رشد توانایی‌های ما در شناسایی موارد شناخته‌شده CSAM. ‫Google بااستفاده از طبقه‌بندها Content Safety API را تولید کرده است که آن را دراختیار دیگران قرار می‌دهد تا به آن‌ها کمک کند محتوای سوءاستفاده را برای بازبینی انسانی در اولویت قرار دهند. 


هم «مطابقت CSAI» و هم «میانای برنامه‌سازی کاربردی ایمنی محتوا» برای نهادهای واجدشرایط که مایلند در پلاتفرم‌هایشان با سوءاستفاده مبارزه کنند دردسترس است. لطفاً برای جزئیات بیشتر به اینجا مراجعه کنید.

وقتی Google مورد CSAM در پلاتفرم خودش شناسایی می‌کند چه کاری انجام می‌دهد؟

وقتی CSAM در پلاتفرم‌های خودمان شناسایی کنیم، آن را حذف می‌کنیم، گزارش CyberTipline برای «مرکز ملی کودکان گم‌شده و مورد بهره‌کشی قرارگرفته» (NCMEC) ارسال می‌کنیم، ممکن است هشدار ارائه دهیم، دسترسی حساب به برخی‌از محصولات یا سرویس‌های Google را محدود می‌کنیم، یا «حساب Google» خاطی را غیرفعال می‌کنیم. همچنین ممکن است «حساب Google» خاطی را بیشتر مرور کنیم تا موارد CSAM دیگر را شناسایی کنیم و/یا مطمئن شویم اطلاعات زمینه‌ای مرتبط را برای انجام اقدام اجرایی لازم و متناسب با محتوای شناسایی‌شده در «حساب Google» مدنظر قرار داده‌ایم.

 

‫NCMEC به‌عنوان اداره مرکزی و مرکز گزارش جامع در ایالات متحده برای مسائل مربوط به بهره‌کشی از کودکان عمل می‌کند. پس‌از اینکه NCMEC گزارش را دریافت کرد، ممکن است آن را به سازمان‌های اجرای قانون در سراسر دنیا ارسال کند.

گزارش CyberTipline چیست و حاوی چه نوع اطلاعاتی است؟

وقتی Google از وجود CSAM مشهودی مطلع شود، گزارشی برای NCMEC ارسال می‌کند. به این گزارش‌ها معمولاً گزارش‌های CyberTipLine یا CyberTips گفته می‌شود. علاوه‌براین، تلاش می‌کنیم موارد شامل سوءاستفاده عملی از خردسالان، تولید CSAM، یا قاچاق کودکان را شناسایی کنیم. در این موارد، یک گزارش متمم CyberTip برای NCMEC ارسال می‌کنیم تا بتوانند موضوع را در اولویت قرار دهند. گزارشی که به NCMEC ارسال می‌شود ممکن است حاوی اطلاعات شناساننده کاربر، فرد خردسال قربانی، محتوای نقض‌کننده، و/یا دیگر داده‌های مفید زمینه‌ای باشد.

در زیر چند نمونه از تأثیرات واقعی گزارش‌های CyberTip که Google ارائه کرده است آمده است. این نمونه‌ها نگاهی اجمالی به طیف گسترده گزارش‌های ما ارائه می‌دهند اما جامع نیستند.  

  • یک Cybertip از Google موارد متعددی از CSAM مربوط به کودکان دبستانی را گزارش کرد که در محیط کلاس درس گرفته شده بودند. برخی‌از موارد گزارش‌شده CSAM قبلاً توسط Google شناسایی نشده بودند و به‌نظر می‌رسید که توسط دارنده «حساب Google» تولید شده باشند. NCMEC این گزارش را به مراجع اجرای قانون بازارسال کرد که منجر به شناسایی و حفاظت از دو کودک خردسالی شد که در تصاویر گزارش‌شده CSAM نشان داده شده بودند.  
  • یک Cybertip از Google درخواست و تولید CSAM ازسوی دارنده حسابی را گزارش کرد که از او خواسته بود ویدیوهای متعددی ساخته شود که در آن‌ها ده‌ها پسر خردسال در ازای پول برای سوءاستفاده عملی به‌تصویر کشیده شوند. NCMEC این گزارش را به مراجع اجرای قانون ارسال کرد. دارنده حساب به‌دلیل تولید CSAM محکوم شد و ده‌ها کودک شناسایی و از سوءاستفاده مداوم محافظت شدند.
  • یک Cybertip از Google محتوای شناخته‌شده‌ای از CSAM را گزارش کرد که منجر به دستگیری دارنده حساب شد. طبق گزارش مراجع اجرای قانون مشخص شد او محتوای CSAM بسیار بیشتری دراختیار داشته و مستقیماً در سوءاستفاده عملی از خردسالان دست داشته و آن کودکان خردسال را برای سوءاستفاده دراختیار دیگران نیز قرار می‌داده است.  با تلاش‌های Google،‏ NCMEC، و مراجع اجرای قانون، سه کودک از آزار جنسی نجات یافتند.
  • یک Cybertip از Google موردی از CSAM را گزارش داد که دارنده «حساب Google» آن را تولید کرده بود و کودکان خردسالی را که دارنده حساب به آن‌ها دسترسی آنلاین داشت اغوا می‌کرد. دارنده حساب بعداً دستگیر شد و مراجع قانونی گزارش دادند که او به‌عنوان متخصص پزشکی در موقعیتی قابل‌اعتماد بوده است: او از این موقعیت برای بهره‌کشی از بیماران تحت مراقبت خود استفاده می‌کرده و دسترسی مستقیم آنلاین به خردسالانی داشته است که آن‌ها را برای تولید CSAM اغوا می‌کرد.

‫Google چگونه با خطرات CSAM در فضای «هوش مصنوعی زایا» (GenAI) مبارزه می‌کند.

‫CSAM تولیدشده با هوش مصنوعی یا تصاویر تولیدشده با رایانه که کودک‌آزاری جنسی را نمایش می‌دهد تهدیدی است که Google آن را بسیار جدی می‌گیرد. تلاش ما برای شناسایی، حذف، و گزارش کردن CSAM همیشه شامل محتوای نقض‌کننده حاوی خردسالان واقعی، تصاویر اصلاح‌شده از خردسال قابل‌شناسایی درحال انجام اعمال صریح جنسی، و تصاویر تولیدشده توسط رایانه که تشخیص آن از خردسال واقعی درحال انجام چنین اعمالی ممکن نباشد بوده است.

‫Google هنگام ایجاد مدل‌ها و محصولات GenAI خود، تأکید بسیار زیادی بر ایمنی کودکان دارد. ما برای محافظت از تمام مدل‌های دردسترس عموم Google و سرویس‌هایی که بر روی این مدل‌ها ساخته شده‌اند از اصول هوش مصنوعی زایای مسئول Google پیروی می‌کنیم.

محافظت‌های ایمنی کودک گوناگونی را برای مدل‌ها و محصولات GenAI خود به‌کار می‌گیریم. این می‌تواند شامل محافظت دربرابر وجود CSAM در داده‌های آموزشی با محور مدل‌های ما، دربرابر پیام‌واره‌های تولیدکننده و جستجوگر CSAM، و دربرابر خروجی‌های خشونت‌آمیز باشد.  علاوه‌براین، پیش‌از راه‌اندازی مدل‌هایمان برای عموم، آزمایش‌های ایمنی کودک قدرتمندی اجرا می‌کنیم تا احتمال تولید شدن CSAM را درک کنیم و آن را کاهش دهیم.

با توسعه یافتن این فناوری، با افراد دیگر در بوم‌سازگان ایمنی کودک، ازجمله ائتلاف فناوری و سازمان‌های مردم‌نهاد ایمنی کودک، نیز همکاری می‌کنیم تا روال‌های مطلوب را هم‌رسانی و درک کنیم.

‫Google چه کاری انجام می‌دهد تا کاربران را از جستجوی CSAM در «جستجو» باز دارد؟

Google از اصول «ایمنی ذاتی» استفاده می‌کند تا کاربران را از جستجوی CSAM در «جستجو» باز دارد. خط‌مشی ما این است که نتایج جستجویی را که به محتوای کودک‌آزاری جنسی منتهی می‌شود و به‌نظر می‌رسد کودکان را ازنظر جنسی قربانی می‌کند، به‌خطر می‌اندازد، یا به‌نحو دیگری از آن‌ها بهره‌کشی می‌کند مسدود می‌کنیم. ما به‌طور مداوم الگوریتم‌های خود را برای مبارزه با این تهدیدها که همواره درحال تغییر هستند به‌روز می‌کنیم. ما برای جستجوهایی که می‌دانیم به‌دنبال محتوای CSAM هستند محافظت‌های اضافی اعمال می‌کنیم. اگر به‌نظر برسد عبارت جستجو به‌دنبال CSAM باشد، نتایج صریح جنسی را فیلتر می‌کنیم، و برای پرسمان‌هایی که محتوای صریح بزرگسالان را جستجو می‌کند، «جستجو» تصاویری را که شامل کودکان باشد برنمی‌گرداند تا ارتباط بین کودکان و محتوای جنسی از بین برود. علاوه‌بر حذف محتوای CSAM از نمایه «جستجو» پس‌از شناسایی شدن، کل محتوای سایت‌هایی را که مقدار زیادی محتوای CSAM دارند نیز تنزل می‌دهیم. در بسیاری از کشورها، کاربرانی که پرسمان‌های کاملاً مرتبط با CSAM وارد می‌کنند با هشدار برجسته‌ای مواجه می‌شوند مبنی‌بر اینکه تصاویر کودک‌آزاری جنسی غیرقانونی است و همچنین اطلاعاتی درباره نحوه گزارش این محتوا به سازمان‌های مورداعتماد نشان داده می‌شود. متوجه شده‌ایم وقتی این هشدارها نشان داده می‌شود احتمال کمتری وجود دارد که کاربران به جستجوی این مطالب ادامه دهند.

Google چگونه به بوم‌سازگان ایمنی کودکان برای مبارزه با CSAM کمک می‌کند؟

تیم ایمنی کودک Google با ایجاد نوعی فناوری که CSAM را به‌طور دقیق شناسایی، گزارش، و حذف می‌کند از کاربران محافظت می‌کند و از آسیب دیدن کودکان در محصولات Google جلوگیری می‌کند. جعبه‌ابزار ایمنی کودکان را توسعه داده‌ایم تا مطمئن شویم بوم‌سازگان وسیع‌تر هم به این فناوری قدرتمند دسترسی داشته باشد و به جلوگیری از تکثیر آنلاین محتوای کودک‌آزاری جنسی کمک کنیم. به‌علاوه، Hash Matching API ارائه‌شده توسط Google را دراختیار NCMEC قرار می‌دهیم تا به آن‌ها کمک کنیم گزارش‌های CyberTipline را به‌طور مؤثرتری اولویت‌بندی و بررسی کنند، و به آن‌ها امکان می‌دهیم گزارش‌های مرتبط با کودکان نیازمند به کمک فوری را با تمرکز بیشتری بررسی کنند. 

همچنین سیگنال‌های بهره‌کشی و کودک‌آزاری جنسی را برای ممکن ساختن حذف CSAM از بوم‌سازگان وسیع‌تر هم‌رسانی می‌کنیم. ما میلیون‌ها درهم‌سازی CSAM را با پایگاه داده درهم‌سازی صنعت NCMEC هم‌رسانی می‌کنیم تا ارائه‌دهندگان دیگر هم بتوانند به این درهم‌سازی‌ها دسترسی داشته باشند و از آن‌ها استفاده کنند. همچنین در Project Lantern که برنامه‌ای برای امکان دادن به شرکت‌های فناوری برای هم‌رسانی سیگنال‌های مربوط به مبارزه با بهره‌کشی و آزار جنسی آنلاین به‌روشی ایمن و مسئولانه است ثبت‌نام کرده‌ایم، زیرا می‌دانیم که این نوع سوءاستفاده می‌تواند از پلاتفرم‌ها و سرویس‌های مختلف عبور کند.

در ائتلاف‌های مختلفی همچون «ائتلاف فناوری»، «اتحاد جهانی WeProtect»، و INHOPE که شرکت‌ها و سازمان‌های مردم‌نهاد را گرد هم می‌آورند تا راه‌حل‌هایی برای مختل کردن تبادل آنلاین CSAM و جلوگیری از بهره‌کشی جنسی از کودکان ایجاد کنند نیز عضویت فعال داریم. ‫Google مشارکت در این ائتلاف‌ها را دراولویت قرار می‌دهد، و در همکاری با سازمان‌های مردم‌نهاد (مثلاً NCMEC و Thorn)، تخصص خود را هم‌رسانی می‌کنیم، روال‌های مطلوب را کاوش می‌کنیم، و اطلاعات بیشتری درباره آخرین تهدیدات مربوط به مشکلات کلیدی ایمنی کودکان کسب می‌کنیم.

چگونه سازمان‌های دولتی می‌توانند درخواست‌های قانونی مرتبط با CyberTip برای Google ارسال کنند؟

پس‌از اینکه NCMEC گزارش را دریافت کرد، ممکن است آن را به سازمان‌های اجرای قانون در سراسر دنیا ارسال کند. سپس سازمان‌های اجرای قانون ممکن است فرایند دادرسی قانونی را برای درخواست اطلاعات بیشتر به Google ارسال کنند (سامانه درخواست متصدیان قانونی - LERS). به‌منظور تسهیل چنین درخواست‌هایی، Google سیستم آنلاینی ارائه می‌دهد که به سازمان‌های دولتی تأییدشده اجازه می‌دهد درخواست‌های اطلاعات بیشتر را به‌طور ایمن ارسال کنند. سپس این سازمان‌ها می‌توانند بااستفاده از این سیستم آنلاین، وضعیت درخواست‌های ارسال‌شده را مشاهده و سرانجام پاسخ Google به درخواست را بارگیری کنند. برای اطلاعات بیشتر درباره LERS یا راه‌اندازی حساب LERS، لطفاً به lers.google.com مراجعه کنید. برای کسب اطلاعات بیشتر، به خط‌مشی‌های ما درباره چگونگی رسیدگی Google به درخواست‌های دولتی برای افشای اطلاعات کاربر مراجعه کنید.

 چگونه می‌توانم موارد مشکوک به CSAM را گزارش دهم؟

اگر پیوند، وب‌سایت، یا هر محتوایی پیدا کردید که CSAM بود، می‌توانید آن را به پلیس، NCMEC، یا سازمان مربوطه در منطقه خود گزارش دهید. اگر در محصولات Google رفتار یا محتوایی نامناسب برای کودکان دیدید یا تجربه کردید، روش‌های بسیاری برای گزارش کردن آن به ما وجود دارد، ازجمله با گزارش کردن جرایم به‌خطر انداختن کودکان (مثلاً اغوا، اخاذی جنسی، شکل‌های دیگری از بهره‌کشی جنسی از کودکان) که در محصولات Google روی می‌دهد. می‌توانید از تماس افراد با فرزندتان در محصولات Google جلوگیری کنید و با مدیریت تنظیمات «حساب Google» فرزندتان، محتوایی را که می‌بیند فیلتر کنید.

کدام تیم‌ها گزارش‌های CSAM را بازبینی می‌کنند؟

بازبینی انسانی بخشی حیاتی از تلاش مداوم ما برای مبارزه با CSAM است. اعضای تیم ما با داشتن سوابق حقوقی، ایمنی و حمایت از کودکان، مددکاری اجتماعی، تحقیقات سایبری، و رشته‌های دیگر، از تخصص بسیار بالایی در این کار برخوردار هستنند. آن‌ها به‌طور ویژه هم در حوزه خط‌مشی ما و هم درباره آنچه ازنظر قانونی محتوای کودک‌آزاری جنسی محسوب می‌شود آموزش دیده‌اند. تیم‌های بازبین ما آموزش‌های تخصصی می‌بینند و از حمایت‌های سلامتی برخوردار هستند. برای اطلاعات بیشتر درباره رویکرد Google نسبت به تعدیل محتوا، ازجمله نحوه حمایت از سلامتی بازبین، به اینجا مراجعه کنید.

این گزارش چه دوره زمانی را پوشش می‌دهد؟

سنجه‌هایی که اینجا ارائه شده است داده‌های جمع‌آوری‌شده از ۱۲:۰۰ ق.ظ (منطقه زمانی اقیانوس آرام) ۱ ژانویه تا ۱۱:۵۹ ب.ظ (ساعت تابستانی اقیانوس آرام) ۳۰ ژوئن و ۱۲:۰۰ ق.ظ (ساعت تابستانی اقیانوس آرام) ۱ ژوئیه تا ۱۱:۵۹ ب.ظ (منطقه زمانی اقیانوس آرام) ۳۱ دسامبر را نشان می‌دهد.
منوی اصلی
9337759595900920335
true
جستجوی مرکز راهنمایی
true
true
true
false
false