CSAM چیست؟
رویکرد Google در مبارزه با CSAM چیست؟
Google چگونه CSAM را در پلاتفرم خود شناسایی میکند؟
ما سرمایهگذاری سنگینی برای مبارزه با بهرهکشی جنسی از کودکان در فضای آنلاین میکنیم و برای بازداری، شناسایی، و حذف CSAM در پلاتفرمهای خودمان از فناوری بهره میگیریم. این شامل شناسایی خودکار و بازبینی انسانی، و همچنین اتکا به گزارشهای ارائهشده از کاربرانمان و اشخاص ثالث مثل سازمانهای مردمنهاد میشود. ما با اجرای انطباق درهمسازی، ازجمله فناوری CSAI Match (تصاویر منطبق با سوءاستفاده جنسی از کودکان) در YouTube، موارد شناختهشده CSAM را شناسایی میکنیم. ما همچنین با بهکارگیری طبقهبندهای یادگیری ماشینی، موارد CSAM قبلاً دیدهنشده را کشف میکنیم که بعداً تیمهای متخصص بازبینی ما نیز آنها را تأیید میکنند. شناسایی موارد CSAM تابهحال دیدهنشده به روشهای متعددی به بومسازگان ایمنی کودک کمک میکند، ازجمله شناسایی کودکان قربانی که نیاز به حفاظت دارند و کمک به مجموعه درهمسازی برای رشد تواناییهای ما در شناسایی موارد شناختهشده CSAM. Google بااستفاده از طبقهبندها Content Safety API را تولید کرده است که آن را دراختیار دیگران قرار میدهد تا به آنها کمک کند محتوای سوءاستفاده را برای بازبینی انسانی در اولویت قرار دهند.
هم «مطابقت CSAI» و هم «میانای برنامهسازی کاربردی ایمنی محتوا» برای نهادهای واجدشرایط که مایلند در پلاتفرمهایشان با سوءاستفاده مبارزه کنند دردسترس است. لطفاً برای جزئیات بیشتر به اینجا مراجعه کنید.
وقتی Google مورد CSAM در پلاتفرم خودش شناسایی میکند چه کاری انجام میدهد؟
NCMEC بهعنوان اداره مرکزی و مرکز گزارش جامع در ایالات متحده برای مسائل مربوط به بهرهکشی از کودکان عمل میکند. پساز اینکه NCMEC گزارش را دریافت کرد، ممکن است آن را به سازمانهای اجرای قانون در سراسر دنیا ارسال کند.
گزارش CyberTipline چیست و حاوی چه نوع اطلاعاتی است؟
وقتی Google از وجود CSAM مشهودی مطلع شود، گزارشی برای NCMEC ارسال میکند. به این گزارشها معمولاً گزارشهای CyberTipLine یا CyberTips گفته میشود. علاوهبراین، تلاش میکنیم موارد شامل سوءاستفاده عملی از خردسالان، تولید CSAM، یا قاچاق کودکان را شناسایی کنیم. در این موارد، یک گزارش متمم CyberTip برای NCMEC ارسال میکنیم تا بتوانند موضوع را در اولویت قرار دهند. گزارشی که به NCMEC ارسال میشود ممکن است حاوی اطلاعات شناساننده کاربر، فرد خردسال قربانی، محتوای نقضکننده، و/یا دیگر دادههای مفید زمینهای باشد.
در زیر چند نمونه از تأثیرات واقعی گزارشهای CyberTip که Google ارائه کرده است آمده است. این نمونهها نگاهی اجمالی به طیف گسترده گزارشهای ما ارائه میدهند اما جامع نیستند.
- یک Cybertip از Google موارد متعددی از CSAM مربوط به کودکان دبستانی را گزارش کرد که در محیط کلاس درس گرفته شده بودند. برخیاز موارد گزارششده CSAM قبلاً توسط Google شناسایی نشده بودند و بهنظر میرسید که توسط دارنده «حساب Google» تولید شده باشند. NCMEC این گزارش را به مراجع اجرای قانون بازارسال کرد که منجر به شناسایی و حفاظت از دو کودک خردسالی شد که در تصاویر گزارششده CSAM نشان داده شده بودند.
- یک Cybertip از Google درخواست و تولید CSAM ازسوی دارنده حسابی را گزارش کرد که از او خواسته بود ویدیوهای متعددی ساخته شود که در آنها دهها پسر خردسال در ازای پول برای سوءاستفاده عملی بهتصویر کشیده شوند. NCMEC این گزارش را به مراجع اجرای قانون ارسال کرد. دارنده حساب بهدلیل تولید CSAM محکوم شد و دهها کودک شناسایی و از سوءاستفاده مداوم محافظت شدند.
- یک Cybertip از Google محتوای شناختهشدهای از CSAM را گزارش کرد که منجر به دستگیری دارنده حساب شد. طبق گزارش مراجع اجرای قانون مشخص شد او محتوای CSAM بسیار بیشتری دراختیار داشته و مستقیماً در سوءاستفاده عملی از خردسالان دست داشته و آن کودکان خردسال را برای سوءاستفاده دراختیار دیگران نیز قرار میداده است. با تلاشهای Google، NCMEC، و مراجع اجرای قانون، سه کودک از آزار جنسی نجات یافتند.
- یک Cybertip از Google موردی از CSAM را گزارش داد که دارنده «حساب Google» آن را تولید کرده بود و کودکان خردسالی را که دارنده حساب به آنها دسترسی آنلاین داشت اغوا میکرد. دارنده حساب بعداً دستگیر شد و مراجع قانونی گزارش دادند که او بهعنوان متخصص پزشکی در موقعیتی قابلاعتماد بوده است: او از این موقعیت برای بهرهکشی از بیماران تحت مراقبت خود استفاده میکرده و دسترسی مستقیم آنلاین به خردسالانی داشته است که آنها را برای تولید CSAM اغوا میکرد.
Google چگونه با خطرات CSAM در فضای «هوش مصنوعی زایا» (GenAI) مبارزه میکند.
CSAM تولیدشده با هوش مصنوعی یا تصاویر تولیدشده با رایانه که کودکآزاری جنسی را نمایش میدهد تهدیدی است که Google آن را بسیار جدی میگیرد. تلاش ما برای شناسایی، حذف، و گزارش کردن CSAM همیشه شامل محتوای نقضکننده حاوی خردسالان واقعی، تصاویر اصلاحشده از خردسال قابلشناسایی درحال انجام اعمال صریح جنسی، و تصاویر تولیدشده توسط رایانه که تشخیص آن از خردسال واقعی درحال انجام چنین اعمالی ممکن نباشد بوده است.
Google هنگام ایجاد مدلها و محصولات GenAI خود، تأکید بسیار زیادی بر ایمنی کودکان دارد. ما برای محافظت از تمام مدلهای دردسترس عموم Google و سرویسهایی که بر روی این مدلها ساخته شدهاند از اصول هوش مصنوعی زایای مسئول Google پیروی میکنیم.
محافظتهای ایمنی کودک گوناگونی را برای مدلها و محصولات GenAI خود بهکار میگیریم. این میتواند شامل محافظت دربرابر وجود CSAM در دادههای آموزشی با محور مدلهای ما، دربرابر پیاموارههای تولیدکننده و جستجوگر CSAM، و دربرابر خروجیهای خشونتآمیز باشد. علاوهبراین، پیشاز راهاندازی مدلهایمان برای عموم، آزمایشهای ایمنی کودک قدرتمندی اجرا میکنیم تا احتمال تولید شدن CSAM را درک کنیم و آن را کاهش دهیم.
با توسعه یافتن این فناوری، با افراد دیگر در بومسازگان ایمنی کودک، ازجمله ائتلاف فناوری و سازمانهای مردمنهاد ایمنی کودک، نیز همکاری میکنیم تا روالهای مطلوب را همرسانی و درک کنیم.
Google چه کاری انجام میدهد تا کاربران را از جستجوی CSAM در «جستجو» باز دارد؟
Google چگونه به بومسازگان ایمنی کودکان برای مبارزه با CSAM کمک میکند؟
تیم ایمنی کودک Google با ایجاد نوعی فناوری که CSAM را بهطور دقیق شناسایی، گزارش، و حذف میکند از کاربران محافظت میکند و از آسیب دیدن کودکان در محصولات Google جلوگیری میکند. جعبهابزار ایمنی کودکان را توسعه دادهایم تا مطمئن شویم بومسازگان وسیعتر هم به این فناوری قدرتمند دسترسی داشته باشد و به جلوگیری از تکثیر آنلاین محتوای کودکآزاری جنسی کمک کنیم. بهعلاوه، Hash Matching API ارائهشده توسط Google را دراختیار NCMEC قرار میدهیم تا به آنها کمک کنیم گزارشهای CyberTipline را بهطور مؤثرتری اولویتبندی و بررسی کنند، و به آنها امکان میدهیم گزارشهای مرتبط با کودکان نیازمند به کمک فوری را با تمرکز بیشتری بررسی کنند.
همچنین سیگنالهای بهرهکشی و کودکآزاری جنسی را برای ممکن ساختن حذف CSAM از بومسازگان وسیعتر همرسانی میکنیم. ما میلیونها درهمسازی CSAM را با پایگاه داده درهمسازی صنعت NCMEC همرسانی میکنیم تا ارائهدهندگان دیگر هم بتوانند به این درهمسازیها دسترسی داشته باشند و از آنها استفاده کنند. همچنین در Project Lantern که برنامهای برای امکان دادن به شرکتهای فناوری برای همرسانی سیگنالهای مربوط به مبارزه با بهرهکشی و آزار جنسی آنلاین بهروشی ایمن و مسئولانه است ثبتنام کردهایم، زیرا میدانیم که این نوع سوءاستفاده میتواند از پلاتفرمها و سرویسهای مختلف عبور کند.
در ائتلافهای مختلفی همچون «ائتلاف فناوری»، «اتحاد جهانی WeProtect»، و INHOPE که شرکتها و سازمانهای مردمنهاد را گرد هم میآورند تا راهحلهایی برای مختل کردن تبادل آنلاین CSAM و جلوگیری از بهرهکشی جنسی از کودکان ایجاد کنند نیز عضویت فعال داریم. Google مشارکت در این ائتلافها را دراولویت قرار میدهد، و در همکاری با سازمانهای مردمنهاد (مثلاً NCMEC و Thorn)، تخصص خود را همرسانی میکنیم، روالهای مطلوب را کاوش میکنیم، و اطلاعات بیشتری درباره آخرین تهدیدات مربوط به مشکلات کلیدی ایمنی کودکان کسب میکنیم.