Что такое контент, представляющий несовершеннолетних в сексуальном контексте?
Какой подход Google использует для борьбы с распространением контента, представляющего несовершеннолетних в сексуальном контексте?
Как Google выявляет на своих платформах контент, представляющий несовершеннолетних в сексуальном контексте?
Мы выделяем значительные средства на борьбу с сексуальной эксплуатацией детей в интернете и используем технологии, чтобы обнаруживать и удалять такой контент на своих платформах, а также не допускать его распространения. Недопустимый контент выявляют автоматизированные системы и проверяют специалисты. Кроме того, мы рассматриваем сообщения пользователей и третьих лиц, например неправительственных организаций (НПО). Google применяет сопоставление хеш-кодов, включая CSAI Match на YouTube, для обнаружения уже известных материалов, представляющих несовершеннолетних в сексуальном контексте. Мы также используем классификаторы на основе машинного обучения, чтобы выявлять новый недопустимый контент, который затем анализируют наши специалисты. Это позволяет, помимо прочего, обнаруживать детей, нуждающихся в защите, и пополнять базу хеш-кодов для повышения эффективности распознавания уже известных материалов с изображением несовершеннолетних в сексуальном контексте. На основе этих классификаторов разработчики Google создали Content Safety API. Мы предоставляем его другим организациям, чтобы их специалисты могли эффективно расставлять приоритеты при проверке подозрительных материалов.
Инструменты CSAI Match и Content Safety API доступны заинтересованным компаниям, которые хотят бороться с недопустимым контентом на собственных платформах. Подробнее…
Что происходит, когда Google обнаруживает на своей платформе контент, представляющий несовершеннолетних в сексуальном контексте?
NCMEC – это ведущая организация в области обработки информации об эксплуатации несовершеннолетних и центр, в который можно сообщить о таких нарушениях. Специалисты центра NCMEC могут передавать полученные сообщения правоохранительным органам разных стран.
Что такое сообщение CyberTipline, и какие данные в нем содержатся?
Когда мы узнаём о размещении материалов, представляющих несовершеннолетних в сексуальном контексте, мы отправляем сообщение в центр NCMEC. Такие уведомления называют сообщениями CyberTipline или CyberTip. Кроме того, мы стараемся выявлять случаи непосредственного плохого обращения с несовершеннолетними, изготовления контента, представляющего их в сексуальном контексте, и торговли детьми. В таких ситуациях мы отправляем в NCMEC дополнительное сообщение CyberTip, чтобы подчеркнуть приоритетность дела. Сообщение, предназначенное для NCMEC, может включать сведения, идентифицирующие пользователя или несовершеннолетнюю жертву, а также контент с нарушениями и/или другие важные данные.
Ниже приводятся реальные примеры того, что было сделано благодаря сообщениям CyberTip, отправленным компанией Google. Это не исчерпывающий список, однако он дает представление о разнообразии типов недопустимого контента, на который мы обращаем внимание.
- Компания Google направила сообщение CyberTip о серии материалов, в которых в сексуальном контексте изображались ученики начальной школы. Некоторые из отмеченных материалов, как оказалось, созданы владельцем аккаунта Google, и прежде нам не удавалось их обнаружить. Центр NCMEC передал наше сообщение в правоохранительные органы, которые идентифицировали на указанных изображениях двух несовершеннолетних детей и защитили их от возможного насилия.
- Компания Google направила сообщение CyberTip с указанием на владельца аккаунта, который просил за деньги снимать для него видеоролики с изображением физического насилия в отношении десятков несовершеннолетних мальчиков. Центр NCMEC передал сообщение в правоохранительные органы. Владелец аккаунта был осужден за изготовление контента с изображением несовершеннолетних в сексуальном контексте. Также были установлены личности нескольких десятков детей, которых удалось оградить от продолжающегося насилия.
- Компания Google направила сообщение CyberTip, указав один материал с изображением несовершеннолетних в сексуальном контексте. В результате был задержан владелец аккаунта, который, по версии правоохранительных органов, имел в распоряжении гораздо больше недопустимых материалов и непосредственно совершал физическое насилие в отношении несовершеннолетних, находившихся на его попечении, а также предоставлял такую возможность другим лицам. Благодаря усилиям Google, NCMEC и правоохранительных органов от сексуального злоупотребления удалось спасти трех детей.
- Компания Google направила сообщение CyberTip с указанием на контент с изображением несовершеннолетних в сексуальном контексте, который владелец аккаунта Google изготавливал самостоятельно и получал от несовершеннолетних в интернете. После задержания владельца аккаунта правоохранительные органы выяснили, что тот занимал ответственную должность в сфере здравоохранения и пользовался своим положением, чтобы совершать недопустимые действия в отношении пациентов. Кроме того, он создавал запрещенные материалы и напрямую обращался к несовершеннолетним в интернете с просьбой предоставить ему такой контент.
Как Google предотвращает создание генеративным искусственным интеллектом контента, представляющего несовершеннолетних в сексуальном контексте?
Созданный искусственным интеллектом контент, представляющий несовершеннолетних в сексуальном контексте, и сгенерированные компьютером изображения со сценами сексуального насилия над детьми – это угроза, которую Google воспринимает очень серьезно. К недопустимым материалам, которые мы выявляем и удаляем и о которых сообщаем, всегда относился затрагивающий реальных несовершеннолетних неприемлемый контент, обработанные изображения со сценами участия опознаваемых несовершеннолетних в откровенно сексуальных действиях, а также сгенерированные компьютером и неотличимые от настоящих изображения со сценами участия несовершеннолетних в таких действиях.
При создании моделей генеративного ИИ и продуктов с ним Google уделяет повышенное внимание безопасности детей. Для защиты всех своих общедоступных моделей и созданных на их основе сервисов мы соблюдаем принципы Google в отношении ответственной разработки генеративного искусственного интеллекта.
В наших моделях генеративного ИИ и продуктах с его использованием безопасность детей обеспечивается различными способами. Например, из данных для обучения моделей исключается контент, представляющий несовершеннолетних в сексуальном контексте. Кроме того, есть механизмы защиты от запросов на поиск и создание таких материалов, а также от недопустимых выходных данных. Чтобы снизить риск генерации подобного контента, мы тщательно тестируем модели, прежде чем использовать их в своих общедоступных продуктах.
Мы также сотрудничаем с разными объединениями, в том числе с Tech Coalition и НПО, цель которых – обеспечивать безопасность детей. По мере развития технологий искусственного интеллекта участники сложившейся экосистемы обмениваются рекомендациями и опытом.
Какие действия предпринимает Google, чтобы в результатах Поиска не появлялся контент, представляющий несовершеннолетних в сексуальном контексте?
Как Google помогает бороться с контентом, представляющим несовершеннолетних в сексуальном контексте?
Специалисты Google по защите детей разрабатывают системы, которые точно распознают и удаляют контент, представляющий несовершеннолетних в сексуальном контексте, а также сообщают о таких материалах в компетентные органы. Это позволяет защищать наших пользователей и ограждать детей от возможных угроз в продуктах Google. Мы также создали набор инструментов для защиты детей. Он дает другим заинтересованным отраслевым игрокам доступ к нашим системам и помогает бороться с онлайн-распространением недопустимых материалов. Кроме того, мы предоставляем NCMEC свой Hash Matching API, используя который специалисты центра могут эффективно устанавливать приоритет и проверять сообщения CyberTipline для обнаружения детей, нуждающихся в немедленной помощи.
Мы также делимся сигналами, указывающими на эксплуатацию детей и сексуальное насилие над ними, чтобы помогать другим участникам отрасли с удалением недопустимых материалов. Google отправляет в базу данных NCMEC миллионы хеш-кодов контента, представляющего несовершеннолетних в сексуальном контексте. Эту информацию могут использовать другие поставщики услуг. Мы понимаем, что в интернете одни и те же материалы с изображением насилия над детьми могут публиковаться сразу на нескольких платформах. Вот почему мы также вступили в программу Lantern. Технологические компании, участвующие в ней, обмениваются данными, чтобы бороться с сексуальным насилием и эксплуатацией в интернете ответственно и с соблюдением всех мер безопасности.
Google является активным участником ряда объединений, таких как Tech Coalition, WeProtect Global Alliance и INHOPE. Под эгидой этих организаций различные компании и НПО разрабатывают решения, которые препятствуют обмену недопустимым контентом в интернете и сексуальной эксплуатации детей. Участие в этих объединениях – приоритетная задача для Google. Сотрудничество с такими НПО, как NCMEC и Thorn, позволяет нам обмениваться опытом с партнерами, изучать их подходы и больше узнавать о последних угрозах безопасности детей по ключевым направлениям.