Работа Google по предотвращению распространения материалов, представляющих несовершеннолетних в сексуальном контексте: часто задаваемые вопросы

Что такое контент, представляющий несовершеннолетних в сексуальном контексте?

По-английски такие материалы называются child sexual abuse materials, сокращенно – CSAM. К ним относится любой визуальный контент, содержащий сцены участия несовершеннолетних в откровенно сексуальных действиях, включая, помимо прочего, фотографии, видео и сгенерированные компьютером изображения. Мы понимаем, что такой контент не равнозначен обнаженной детской натуре. Поэтому наши правила и системы позволяют отличать безобидные и не имеющие сексуального подтекста изображения ребенка, играющего в ванной или во дворе частного дома, от нарушающих международное законодательство изображений, связанных с непристойной демонстрацией гениталий и интимных зон или с сексуальным злоупотреблением в отношении несовершеннолетних. Кроме того, есть и другие типы непристойного и провокационного контента с детьми, например рисунки или мультфильмы с сексуальным насилием над несовершеннолетними, а также материалы, авторы которых пытаются представить сексуальную эксплуатацию ребенка в юмористическом ключе. Такие изображения тоже могут нарушать международное законодательство.

Какой подход Google использует для борьбы с распространением контента, представляющего несовершеннолетних в сексуальном контексте?

Мы активно боремся с публикацией такого контента онлайн и делаем все возможное, чтобы его нельзя было создавать, хранить и распространять на наших платформах. Мы организуем работу специалистов и создаем технологии, чтобы выявлять и удалять недопустимые материалы, а также предотвращать их распространение. Кроме того, Google сообщает о контенте и действиях, связанных с сексуальной эксплуатацией детей, в компетентные органы. Дополнительную информацию о том, что мы делаем для защиты детей и семьи, вы можете найти в Центре безопасности Google, правилах сообщества YouTube, на посвященном защите детей сайте и в записи блога о том, как мы обнаруживаем и удаляем недопустимые материалы и куда сообщаем о них.

Как Google выявляет на своих платформах контент, представляющий несовершеннолетних в сексуальном контексте?

Мы выделяем значительные средства на борьбу с сексуальной эксплуатацией детей в интернете и используем технологии, чтобы обнаруживать и удалять такой контент на своих платформах, а также не допускать его распространения. Недопустимый контент выявляют автоматизированные системы и проверяют специалисты. Кроме того, мы рассматриваем сообщения пользователей и третьих лиц, например неправительственных организаций (НПО). Google применяет сопоставление хеш-кодов, включая CSAI Match на YouTube, для обнаружения уже известных материалов, представляющих несовершеннолетних в сексуальном контексте. Мы также используем классификаторы на основе машинного обучения, чтобы выявлять новый недопустимый контент, который затем анализируют наши специалисты. Это позволяет, помимо прочего, обнаруживать детей, нуждающихся в защите, и пополнять базу хеш-кодов для повышения эффективности распознавания уже известных материалов с изображением несовершеннолетних в сексуальном контексте. На основе этих классификаторов разработчики Google создали Content Safety API. Мы предоставляем его другим организациям, чтобы их специалисты могли эффективно расставлять приоритеты при проверке подозрительных материалов.


Инструменты CSAI Match и Content Safety API доступны заинтересованным компаниям, которые хотят бороться с недопустимым контентом на собственных платформах. Подробнее…

Что происходит, когда Google обнаруживает на своей платформе контент, представляющий несовершеннолетних в сексуальном контексте?

Если на платформах Google обнаруживается контент, представляющий несовершеннолетних в сексуальном контексте, мы удаляем такие материалы и направляем сообщение через систему CyberTipline в Национальный центр США по проблемам пропавших без вести и подвергающихся эксплуатации детей (NCMEC). В зависимости от тяжести и характера нарушения мы можем отправить уведомление автору, ограничить доступ этого пользователя к некоторым сервисам Google или заблокировать его аккаунт. Кроме того, мы можем провести дополнительную проверку аккаунта Google, чтобы выяснить, не связан ли с ним другой контент, представляющий несовершеннолетних в сексуальном контексте. Это также позволит нам убедиться, что мы принимаем надлежащие и соразмерные принудительные меры в отношении выявленных материалов.

 

NCMEC – это ведущая организация в области обработки информации об эксплуатации несовершеннолетних и центр, в который можно сообщить о таких нарушениях. Специалисты центра NCMEC могут передавать полученные сообщения правоохранительным органам разных стран.

Что такое сообщение CyberTipline, и какие данные в нем содержатся?

Когда мы узнаём о размещении материалов, представляющих несовершеннолетних в сексуальном контексте, мы отправляем сообщение в центр NCMEC. Такие уведомления называют сообщениями CyberTipline или CyberTip. Кроме того, мы стараемся выявлять случаи непосредственного плохого обращения с несовершеннолетними, изготовления контента, представляющего их в сексуальном контексте, и торговли детьми. В таких ситуациях мы отправляем в NCMEC дополнительное сообщение CyberTip, чтобы подчеркнуть приоритетность дела. Сообщение, предназначенное для NCMEC, может включать сведения, идентифицирующие пользователя или несовершеннолетнюю жертву, а также контент с нарушениями и/или другие важные данные.

Ниже приводятся реальные примеры того, что было сделано благодаря сообщениям CyberTip, отправленным компанией Google. Это не исчерпывающий список, однако он дает представление о разнообразии типов недопустимого контента, на который мы обращаем внимание.  

  • Компания Google направила сообщение CyberTip о серии материалов, в которых в сексуальном контексте изображались ученики начальной школы. Некоторые из отмеченных материалов, как оказалось, созданы владельцем аккаунта Google, и прежде нам не удавалось их обнаружить. Центр NCMEC передал наше сообщение в правоохранительные органы, которые идентифицировали на указанных изображениях двух несовершеннолетних детей и защитили их от возможного насилия.  
  • Компания Google направила сообщение CyberTip с указанием на владельца аккаунта, который просил за деньги снимать для него видеоролики с изображением физического насилия в отношении десятков несовершеннолетних мальчиков. Центр NCMEC передал сообщение в правоохранительные органы. Владелец аккаунта был осужден за изготовление контента с изображением несовершеннолетних в сексуальном контексте. Также были установлены личности нескольких десятков детей, которых удалось оградить от продолжающегося насилия.
  • Компания Google направила сообщение CyberTip, указав один материал с изображением несовершеннолетних в сексуальном контексте. В результате был задержан владелец аккаунта, который, по версии правоохранительных органов, имел в распоряжении гораздо больше недопустимых материалов и непосредственно совершал физическое насилие в отношении несовершеннолетних, находившихся на его попечении, а также предоставлял такую возможность другим лицам. Благодаря усилиям Google, NCMEC и правоохранительных органов от сексуального злоупотребления удалось спасти трех детей.
  • Компания Google направила сообщение CyberTip с указанием на контент с изображением несовершеннолетних в сексуальном контексте, который владелец аккаунта Google изготавливал самостоятельно и получал от несовершеннолетних в интернете. После задержания владельца аккаунта правоохранительные органы выяснили, что тот занимал ответственную должность в сфере здравоохранения и пользовался своим положением, чтобы совершать недопустимые действия в отношении пациентов. Кроме того, он создавал запрещенные материалы и напрямую обращался к несовершеннолетним в интернете с просьбой предоставить ему такой контент.

Как Google предотвращает создание генеративным искусственным интеллектом контента, представляющего несовершеннолетних в сексуальном контексте?

Созданный искусственным интеллектом контент, представляющий несовершеннолетних в сексуальном контексте, и сгенерированные компьютером изображения со сценами сексуального насилия над детьми – это угроза, которую Google воспринимает очень серьезно. К недопустимым материалам, которые мы выявляем и удаляем и о которых сообщаем, всегда относился затрагивающий реальных несовершеннолетних неприемлемый контент, обработанные изображения со сценами участия опознаваемых несовершеннолетних в откровенно сексуальных действиях, а также сгенерированные компьютером и неотличимые от настоящих изображения со сценами участия несовершеннолетних в таких действиях.

При создании моделей генеративного ИИ и продуктов с ним Google уделяет повышенное внимание безопасности детей. Для защиты всех своих общедоступных моделей и созданных на их основе сервисов мы соблюдаем принципы Google в отношении ответственной разработки генеративного искусственного интеллекта.

В наших моделях генеративного ИИ и продуктах с его использованием безопасность детей обеспечивается различными способами. Например, из данных для обучения моделей исключается контент, представляющий несовершеннолетних в сексуальном контексте. Кроме того, есть механизмы защиты от запросов на поиск и создание таких материалов, а также от недопустимых выходных данных. Чтобы снизить риск генерации подобного контента, мы тщательно тестируем модели, прежде чем использовать их в своих общедоступных продуктах.

Мы также сотрудничаем с разными объединениями, в том числе с Tech Coalition и НПО, цель которых – обеспечивать безопасность детей. По мере развития технологий искусственного интеллекта участники сложившейся экосистемы обмениваются рекомендациями и опытом.

Какие действия предпринимает Google, чтобы в результатах Поиска не появлялся контент, представляющий несовершеннолетних в сексуальном контексте?

Меры безопасности, встроенные в Google Поиск, не позволяют пользователям искать недопустимые материалы в Поиске. Мы блокируем результаты поиска, указывающие на недопустимый контент, в котором дети оказываются жертвами сексуального насилия, подвергаются опасности или эксплуатируются другим способом. Угрозы становятся разнообразнее и сложнее, поэтому мы постоянно совершенствуем алгоритмы для борьбы ними. Мы применяем усиленные меры контроля в отношении поисковых запросов, нацеленных на контент с изображением несовершеннолетних в сексуальном контексте. В случае таких запросов мы исключаем результаты сексуального характера, а по запросам контента для взрослых в Поиске не показываются изображения, на которых есть дети. Это делается для того, чтобы между контентом сексуального характера и детьми не было связи. Google не только удаляет из поискового индекса контент, представляющий несовершеннолетних в сексуальном контексте, но и в целом понижает рейтинг сайтов с высокой долей таких материалов. Во многих странах при вводе запроса, который явно касается контента с изображением несовершеннолетних в сексуальном контексте, пользователю показывается заметное предупреждение о том, что такие материалы запрещены законом, а также рассказывается, как сообщить о них в проверенные организации. Мы убедились, что после просмотра таких предупреждений пользователи менее склонны продолжать поиск подобного контента.

Как Google помогает бороться с контентом, представляющим несовершеннолетних в сексуальном контексте?

Специалисты Google по защите детей разрабатывают системы, которые точно распознают и удаляют контент, представляющий несовершеннолетних в сексуальном контексте, а также сообщают о таких материалах в компетентные органы. Это позволяет защищать наших пользователей и ограждать детей от возможных угроз в продуктах Google. Мы также создали набор инструментов для защиты детей. Он дает другим заинтересованным отраслевым игрокам доступ к нашим системам и помогает бороться с онлайн-распространением недопустимых материалов. Кроме того, мы предоставляем NCMEC свой Hash Matching API, используя который специалисты центра могут эффективно устанавливать приоритет и проверять сообщения CyberTipline для обнаружения детей, нуждающихся в немедленной помощи.

Мы также делимся сигналами, указывающими на эксплуатацию детей и сексуальное насилие над ними, чтобы помогать другим участникам отрасли с удалением недопустимых материалов. Google отправляет в базу данных NCMEC миллионы хеш-кодов контента, представляющего несовершеннолетних в сексуальном контексте. Эту информацию могут использовать другие поставщики услуг. Мы понимаем, что в интернете одни и те же материалы с изображением насилия над детьми могут публиковаться сразу на нескольких платформах. Вот почему мы также вступили в программу Lantern. Технологические компании, участвующие в ней, обмениваются данными, чтобы бороться с сексуальным насилием и эксплуатацией в интернете ответственно и с соблюдением всех мер безопасности.

Google является активным участником ряда объединений, таких как Tech Coalition, WeProtect Global Alliance и INHOPE. Под эгидой этих организаций различные компании и НПО разрабатывают решения, которые препятствуют обмену недопустимым контентом в интернете и сексуальной эксплуатации детей. Участие в этих объединениях – приоритетная задача для Google. Сотрудничество с такими НПО, как NCMEC и Thorn, позволяет нам обмениваться опытом с партнерами, изучать их подходы и больше узнавать о последних угрозах безопасности детей по ключевым направлениям.

Как государственное учреждение может отправить в Google официальный запрос, связанный с CyberTip?

Специалисты центра NCMEC могут передавать полученные сообщения правоохранительным органам разных стран. Затем правоохранительные органы могут направить в Google юридический запрос для получения дополнительной информации (через Систему запросов от правоохранительных органов – LERS). Чтобы упростить этот процесс, мы создали онлайн-систему, которая позволяет представителям подтвержденных государственных учреждений направлять в Google запросы дополнительной информации по защищенному каналу, просматривать статусы запросов и скачивать наши ответы. Дополнительные сведения о системе LERS и настройке аккаунта LERS вы найдете на сайте lers.google.com. Подробнее о том, как Google обрабатывает запросы госорганов на получение пользовательских данных

Как сообщить о контенте, представляющем несовершеннолетних в сексуальном контексте?

Если вы обнаружили ссылку, сайт или другие материалы, представляющие несовершеннолетних в сексуальном контексте, то можете сообщить об этом в полицию, NCMEC или местную организацию. Столкнувшись с неприемлемым контентом или поведением по отношению к детям в продуктах Google, сообщите нам об этом одним из удобных способов. Например, можно отправить жалобу на создание угрозы для детей, в том числе на совращение несовершеннолетних, шантаж разоблачениями половой жизни и другие формы сексуальной эксплуатации детей. Вы также можете ограничить для незнакомцев возможность общаться с вашим ребенком в сервисах Google и включить фильтр контента в настройках его аккаунта Google.

Какие команды рассматривают жалобы на материалы, представляющие несовершеннолетних в сексуальном контексте?

Проверка специалистом – важный этап нашей борьбы с недопустимым контентом. Она поручена отделу, сотрудники которого имеют богатый опыт в области юриспруденции, защиты детей, общественной деятельности, расследования киберпреступлений и в других сферах. Они прошли специальное обучение и хорошо разбираются как в наших правилах, так и в тонкостях законодательного определения контента, представляющего несовершеннолетних в сексуальном контексте. Наши сотрудники проходят подготовку и получают психологическую поддержку. Дополнительную информацию о том, как Google организует модерацию контента и обеспечивает психологическое благополучие специалистов, вы можете найти здесь.

Данные за какой период представлены в отчете?

Показатели в отчете отражают данные, полученные с 12:00 1 января до 23:59 30 июня и с 12:00 1 июля до 23:59 31 декабря, если не указано иное. Используется тихоокеанское стандартное время.
Главное меню
1812372546243374042
true
Поиск по Справочному центру
true
true
true
false
false