児童性的虐待のオンライン コンテンツ撲滅に対する Google の取り組みに関するよくある質問

CSAM とは何ですか?

CSAM は、Child Sexual Abuse Material(児童性的虐待のコンテンツ)の略称です。これには、露骨な性的行為に関与する未成年者を扱った写真、動画、コンピュータ生成による画像などの(ただしこれらに限定されない)あらゆる映像描写が該当します。Google は CSAM と子供の裸体は同じものではないと認識しており、Google のポリシーとシステムは、性的な性質がなく CSAM でもない、子供が浴槽や裏庭で遊んでいるといった問題のない画像と、子供の性的虐待や国際的な法律に違反する性器やプライベート ゾーンのみだらな露出に関わる画像を認識し区別するよう、特別に設計されています。さらに、子供を含んでいるか表現している、他の種類のわいせつまたは搾取的な画像もあります。たとえば、児童性的虐待を漫画で描写したり、児童の性的搾取を冗談めかして表現したりする試みなどが見られます。このような画像も国際的な法律に違反する可能性があります。

CSAM の撲滅に向けて、Google はどのように取り組んでいますか?

Google は、オンラインでの CSAM を撲滅し、このようなコンテンツの作成、保存、配布に Google のプラットフォームが使用されることのないよう尽力しています。児童性的搾取のコンテンツおよび行為を検出、阻止、削除、報告することに、技術や人材、時間の面で多大なリソースを投じています。子供や家族を守る Google の取り組みについて詳しくは、Google セーフティ センター、YouTube のコミュニティ ガイドライン、Google の子供の保護に関するサイトCSAM の検出、削除、報告に関するブログをご覧ください。

Google のプラットフォームでは、CSAM をどのように特定しているのですか?

Google は、オンラインでの児童性的搾取の撲滅に積極的に資金を投じ、技術を利用して Google のプラットフォームでの CSAM の阻止、検出、削除を行っています。これには、ユーザーや NGO などの第三者からの報告に基づく対応に加え、自動化された審査と人間による審査が含まれます。既存の CSAM を検出するために、YouTube の CSAI Match などハッシュ照合を導入しています。また、機械学習分類器を導入して未知の CSAM を探し出し、担当審査チームが確認しています。未知の CSAM を検出することで、保護が必要な被害児童の特定や、既知の CSAM 検出能力を高めるためのハッシュセットへの貢献など、さまざまな形で子供の安全に関わるエコシステムを強化しています。これらの分類器を使って Google が作成した Content Safety API は、不適切なコンテンツを選別して人間が重点的に審査できるよう、社外の団体にも提供しています。


CSAI 照合と Content Safety API はどちらも、さまざまなプラットフォームで不適切なコンテンツの撲滅に取り組んでいる対象機関でご利用いただけます。詳しくは、こちらをご覧ください。

Google のプラットフォームで CSAM が検出された場合、Google はどのように対応していますか?

Google のプラットフォームで CSAM が検出された場合、Google はそのコンテンツを削除し、「CyberTipline」レポートを作成して NCMEC に報告しています。違反の性質と重大度によっては、警告の表示、特定の Google プロダクトやサービスへのアカウントによるアクセスの制限、Google アカウントの無効化を行うこともあります。追加の CSAM を特定するため、または Google アカウントで特定されたコンテンツに関して、関連するコンテキストを考慮して適切かつ相応の違反措置を取るために、Google アカウントのさらなる審査を行うことがあります。

 

NCMEC は、児童搾取に関する問題についての米国の情報センターおよび包括的な報告センターとしての役割を果たしています。NCMEC は、報告を受けると、その報告を世界中の法執行機関に通報することがあります。

CyberTipline レポートとは何ですか?このレポートにはどのような種類の情報が含まれているのですか?

Google は、明らかに CSAM であると判断すると、NCMEC に報告します。このような報告のことを一般に CyberTipline レポート、または CyberTip と呼びます。さらに、Google は、未成年に対する身体的虐待、CSAM の制作、児童売買に関するケースの特定にも取り組んでいます。このようなケースで、Google はその問題に優先的に対応できるよう追加の CyberTip レポートを NCMEC に送付します。NCMEC に送付するレポートには、ユーザーや未成年の被害者を特定する情報や、違反コンテンツや参考となるコンテキスト データが含まれることもあります。

Google が提出した CyberTip レポートが実社会に与えた影響の実例を、以下に示します。これらは Google が作成するさまざまなレポートの一例にすぎず、包括的なものではありません。  

  • Google Cybertip は、教室で撮影された小学生の多数の CSAM を報告しました。報告した CSAM の一部は、これまでに Google が特定していなかったものであり、Google アカウント所有者が制作したものと思われます。NCMEC がこのレポートを法執行機関に送ったことで、報告した CSAM 画像に写っている未成年者 2 人の身元確認と保護に至りました。  
  • Google Cybertip は、あるアカウント所有者が勧誘、制作した CSAM を報告しました。このアカウント所有者は金銭と引き換えに、数十人の未成年男子の身体的虐待を写した多数の動画制作を要求していました。NCMEC は、このレポートを法執行機関に提出しました。アカウント所有者は CSAM の制作で有罪となり、数十人の子供が特定され、ずっと続いていた虐待から保護されました。
  • Google CyberTip は、既知の CSAM コンテンツを 1 件報告し、それによってアカウント所有者の逮捕に至りました。法執行機関によると、このアカウント所有者は他にも多くの CSAM を所持しており、自身の保護下にある未成年者の身体的虐待に直接関与し、また、その未成年者を虐待目的で他人に提供していたことも判明しました。Google、NCMEC、法執行機関の取り組みにより、3 人の子供が性的虐待から助け出されました。
  • Google Cybertip は、Google アカウント所有者がオンラインで接触した未成年者を勧誘して制作した CSAM を報告しました。このアカウント所有者は後に逮捕され、法執行機関により、医療従事者として信頼される立場にあったと判断されました。立場を利用して受け持ち患者を虐待し、オンラインで直接接触できる未成年者を勧誘して CSAM を制作していたのです。

Google は生成 AI 分野における CSAM のリスクにどのように対処していますか?

Google は、児童性的虐待を描写した AI 生成の CSAM やコンピュータ生成画像は真剣に取り組むベき脅威だと考えています。CSAM を検出、削除、報告する Google の取り組みには、実在の未成年者が関与する違反コンテンツ、露骨な性的行為に関与している特定可能な未成年者の改変された画像、露骨な性的行為に関与している実在の未成年者と区別がつかないコンピュータ生成画像などが常に含まれています。

Google は、独自の生成 AI モデルとプロダクトを開発する際に、子供の安全を重視しています。Google は、Google の責任ある生成 AI の原則に沿って、Google が一般公開しているすべてのモデルと、その上に構築されたサービスを保護しています。

Google は、生成 AI モデルとプロダクト向けに、子供の安全を守るさまざまな保護を導入しています。これには、Google のモデルの基盤となるトレーニング データにおける CSAM の存在、CSAM を探したり生成したりするメッセージ、違反出力に対する保護が含まれます。また、CSAM が生成される可能性を把握、軽減するために、一般公開に先駆けて子供の安全に関する堅牢なテストをモデルで実施しています。

さらに、Technology Coalition や子供の安全に関わる NGO など、子供の安全に関するエコシステムに携わる他の機関とも協力し、このテクノロジーが進化し続ける中でベスト プラクティスを共有し、理解を深めています。

検索でユーザーが CSAM を探すのを抑止するために、Google はどのような対策をとっていますか?

Google は、検索でユーザーが CSAM を探すのを抑止するため、安全性を重視した設計原則を導入しています。Google は、子供の性的被害、危険、その他の搾取が伺われる、児童性的虐待のコンテンツを検索結果からブロックすることをポリシーで定めています。これらの脅威は進化しており、それに対抗するため Google は常にアルゴリズムをアップデートしています。CSAM コンテンツを目的にしているとみなされる検索には、特別な保護機能を適用しています。検索クエリが CSAM を目的にしていると疑われる場合は、露骨な性的描写を含むコンテンツを検索結果から除外します。露骨なアダルト コンテンツを求めるクエリの場合は、児童と性的コンテンツの関連性を断つために、児童を含む画像を検索結果に表示しません。Google は、特定された CSAM コンテンツを検索のインデックスから削除するだけでなく、CSAM コンテンツが多く含まれるサイトのすべてのコンテンツについて順位を下げます。多くの国では、明らかに CSAM に関連するクエリを入力したユーザーに対しては視認性の高い警告が表示され、児童への性的虐待の画像は違法であることと、そのコンテンツを信頼できる機関に報告する方法が通知されます。このような警告が表示されると、ユーザーがそのコンテンツを探し続ける可能性は低くなるということがわかっています。

Google は CSAM 撲滅に向けて、子供の安全エコシステムにどのような貢献をしていますか?

Google の児童安全チームは、ユーザーを保護し、子供が Google サービスで被害に遭わないようにするために、CSAM を正確に検出、報告、削除するテクノロジーを構築しています。児童安全ツールキットを開発した目的は、より広範なエコシステムからも、この高度なテクノロジーへのアクセスを可能にし、児童性的虐待のコンテンツのオンライン拡散防止に寄与するためです。さらに、早急な対応を要するレポートをいち早く判別できるよう、CyberTipline レポートの優先度の判断と審査を効率化するために Google の Hash Matching API を NCMEC に提供しています。

また、より広範なエコシステムから CSAM を削除できるように、児童の性的虐待と搾取のシグナルも共有しています。Google は数百万件の CSAM ハッシュを NCMEC の業界ハッシュ データベースと共有しており、他のプロバイダがこれらのハッシュにアクセスして使用できるようにしています。また、Project Lantern にも署名しました。これは、不適切なコンテンツはさまざまなプラットフォームやサービスを横断するという理解のもと、オンラインでの性的虐待と性的搾取を撲滅するため、テクノロジー企業が安全かつ責任ある方法で関連するシグナルを共有できるようにするプログラムです。

また、Technology Coalition、WeProtect Global Alliance、INHOPE など複数の連合のメンバーとしても活動しています。ここでは企業と NGO が連携して、オンラインでの CSAM のやり取りを阻止し、子供の性的搾取を防止するソリューションを開発しています。Google はこれらの連合への参加を重視しており、NCMEC や Thorn などの NGO と協力して、専門知識を共有し、ベスト プラクティスを模索し、子供の安全に関する重要な問題に関わる最新の脅威について理解を深めています。

政府機関はどのような方法で、CyberTip に関連する法的要請を Google に送信できるのですか?

NCMEC は、報告を受けると、その報告を世界中の法執行機関に通報することがあります。法執行機関は追加情報を求めて、Google に法的手続きを送信することがあります(Law Enforcement Request System - LERS)。このような要請を円滑に進めるため、Google は、認証された政府機関が追加情報のリクエストを安全に送信できるオンライン システムを提供しています。これらの政府機関は、このオンライン システムを使用して、送信したリクエストのステータスを確認し、最終的には、そのリクエストへの Google の回答をダウンロードできます。LERS の詳細および LERS アカウントの設定方法については、lers.google.com をご覧ください。詳しくは、Google は政府からのユーザー情報リクエストにどう対応しているかで、Google のポリシーをご覧ください。

CSAM の疑いはどのように報告すればよいですか?

CSAM であるリンク、ウェブサイト、コンテンツを見つけた場合は、警察、NCMEC、または地域の適切な機関に報告できます。Google プロダクトで児童に対する不適切なコンテンツや行為を見たり経験したりした場合は、さまざまな方法で Google に報告できます。これには、Google プロダクトで発生する児童を危険にさらす行為(性的な誘いかけ、セクストーション、その他の児童の性的搾取など)の報告が含まれます。Google プロダクトでお子様に連絡できないよう設定したりお子様の Google アカウントの設定を管理してお子様が見るコンテンツをフィルタしたりもできます。

どのチームが CSAM のレポートを審査するのですか?

人間による審査は、CSAM 撲滅に向けて継続的に取り組むうえで、非常に重要な要素です。チームのメンバーは、法律、子供の安全と擁護、ソーシャル ワーク、サイバー調査などにおけるバックグラウンドを持ち、この仕事に深い専門性を発揮しています。メンバーは、Google のポリシーの範囲と、児童性的虐待のコンテンツを法的に構成する内容について、特別なトレーニングを受けています。審査担当者のチームは、特別なトレーニングとメンタルヘルスのサポートを受けています。審査担当者の福利をどのようにサポートしているかを含め、Google がコンテンツ管理にどう取り組んでいるかについては、こちらをご覧ください。

このレポートの対象期間を教えてください。

このレポートに示される指標は、特に明記されていない限り、1 月 1 日午前 0 時(PST)~6 月 30 日午後 11 時 59 分(PDT)および 7 月 1 日午前 0 時(PDT)~12 月 31 日午後 11 時 59 分(PST)に収集されたデータを表します。
メインメニュー
11498024445740147186
true
ヘルプセンターを検索
true
true
true
false
false