児童性的虐待のオンライン コンテンツ撲滅に対する Google の取り組みに関するよくある質問

CSAM とは何ですか?

CSAM は、Child Sexual Abuse Material(児童性的虐待のコンテンツ)の略称です。これには、性的に露骨な行為に関与する未成年の使用に関する、写真、動画、コンピュータ生成による画像などの(ただしこれらに限定されない)あらゆる映像描写が該当します。CSAM の解釈は、米国連邦政府による「児童ポルノ」の定義に準じます。

CSAM の撲滅に対し Google はどのように取り組んでいるのですか?

Google は、オンラインでの CSAM を撲滅し、このようなコンテンツの拡散に Google のプラットフォームが使用されないようにすることに取り組んでいます。児童性的搾取のコンテンツおよび行為の検出、阻止、削除、報告に、技術、人材、時間の面で多大なリソースを投じています。子どもや家族を守る Google の取り組みについて詳しくは、Google セーフティ センターおよび YouTube のコミュニティ ガイドラインをご覧ください。

Google のプラットフォームで CSAM をどのように特定しているのですか?

Google は、オンラインでの児童性的搾取の撲滅に積極的に資金を投じ、技術を利用して Google のプラットフォームでの CSAM の阻止、検出、削除を行っています。これには、ユーザーや NGO などの第三者からの報告に基づいて Google のプラットフォームで CSAM を検出、削除、報告することに加え、自動化された審査と人間による審査が含まれます。報告された CSAM を検出するためには、YouTube の CSAI 照合など、ハッシュ照合を導入しています。また、機械学習に基づく分類子によって、まだ検出されていない CSAM を探し出し、担当審査チームが確認しています。これらの分類子を使って Google が作成した Content Safety API は、不適切なコンテンツを選別して優先的に人間による審査ができるよう社外に公開されています。


CSAI 照合と Content Safety API はどちらも、さまざまなプラットフォームで不適切なコンテンツの撲滅に取り組んでいる対象機関でご利用いただけます。詳しくは、こちらをご覧ください。

Google のプラットフォームで CSAM が検出された場合、Google はどのように対応していますか?

Google のプラットフォームで CSAM が検出された場合、Google はそのコンテンツを削除し、「CyberTipline」レポートを作成して NCMEC に報告しています。また、該当ユーザーのアカウントを停止することもあります。NCMEC は、児童搾取に関する問題についての米国の情報センターおよび包括的な報告センターとしての役割を果たしています。NCMEC は、報告を受けると、その報告を世界中の法執行機関に通報することがあります。

CyberTipline レポートとは何ですか?このレポートにはどのような種類の情報が含まれているのですか?

Google は、明らかに CSAM であると判断すると、NCMEC に報告します。このような報告のことを一般に CyberTipline レポート、または CyberTip と呼びます。さらに、Google は、未成年に対する身体的虐待、CSAM の制作、児童売買に関するケースの特定にも取り組んでいます。このようなケースで、Google はその問題に優先的に対応できるよう追加の CyberTip レポートを NCMEC に送付します。NCMEC に送付されるレポートには、ユーザーや未成年の被害者を特定する情報など、参考となる状況証拠が含まれることもあります。

政府機関はどのような方法で CyberTip に関連する法的要請を Google に送信できるのですか?

NCMEC は、報告を受けると、その報告を世界中の法執行機関に通報することがあります。法執行機関は、追加情報を求めるため、Google に法的手続きを送信することもあります。このような要請を円滑に進めるため、Google は、認証済みの政府機関が追加情報のリクエストを安全に送信できるオンライン システムを用意しています。これらの政府機関は、このオンライン システムを使用して、送信したリクエストのステータスを確認し、最終的には、そのリクエストへの Google の回答をダウンロードすることができます。詳しくは、Google は政府からのユーザー情報リクエストにどう対応しているかで、Google のポリシーをご覧ください。

CSAM の疑いを報告するにはどうすればよいですか?

CSAM であるリンク、ウェブサイト、コンテンツを見つけた場合は、警察、NCMEC、または地域の適切な機関に報告できます。Google のサービスで児童に対する不適切なコンテンツや行為を見たり、体験したりした場合には、さまざまな方法で Google に報告できます。Google のサービスでお子様に連絡できないよう設定したり、お子様の Google アカウントの設定を管理してお子様が見るコンテンツをフィルタしたりすることもできます。

どのチームが CSAM のレポートを審査するのですか?

人間による審査は、CSAM の撲滅に対する継続的な取り組みの非常に重要な要素です。審査担当者のチームには、専門のトレーニングやメンタルヘルスのサポートを提供しています。審査担当者の福利をどのようにサポートしているかを含め、Google がコンテンツ管理にどう取り組んでいるかについては、こちらをご覧ください。

このレポートの対象期間を教えてください。

このレポートに示される指標は、特に明記されていない限り、1 月 1 日午前 0 時(PST)~6 月 30 日午後 11 時 59 分(PDT)および 7 月 1 日午前 0 時(PDT)~12 月 31 日午後 11 時 59 分(PST)に収集されたデータを表します。