CSAM とは何ですか?
CSAM の撲滅に向けて、Google はどのように取り組んでいますか?
Google のプラットフォームでは、CSAM をどのように特定しているのですか?
Google は、オンラインでの児童性的搾取の撲滅に積極的に資金を投じ、技術を利用して Google のプラットフォームでの CSAM の阻止、検出、削除を行っています。これには、ユーザーや NGO などの第三者からの報告に基づく対応に加え、自動化された審査と人間による審査が含まれます。既存の CSAM を検出するために、YouTube の CSAI Match などハッシュ照合を導入しています。また、機械学習分類器を導入して未知の CSAM を探し出し、担当審査チームが確認しています。未知の CSAM を検出することで、保護が必要な被害児童の特定や、既知の CSAM 検出能力を高めるためのハッシュセットへの貢献など、さまざまな形で子供の安全に関わるエコシステムを強化しています。これらの分類器を使って Google が作成した Content Safety API は、不適切なコンテンツを選別して人間が重点的に審査できるよう、社外の団体にも提供しています。
CSAI 照合と Content Safety API はどちらも、さまざまなプラットフォームで不適切なコンテンツの撲滅に取り組んでいる対象機関でご利用いただけます。詳しくは、こちらをご覧ください。
Google のプラットフォームで CSAM が検出された場合、Google はどのように対応していますか?
NCMEC は、児童搾取に関する問題についての米国の情報センターおよび包括的な報告センターとしての役割を果たしています。NCMEC は、報告を受けると、その報告を世界中の法執行機関に通報することがあります。
CyberTipline レポートとは何ですか?このレポートにはどのような種類の情報が含まれているのですか?
Google は、明らかに CSAM であると判断すると、NCMEC に報告します。このような報告のことを一般に CyberTipline レポート、または CyberTip と呼びます。さらに、Google は、未成年に対する身体的虐待、CSAM の制作、児童売買に関するケースの特定にも取り組んでいます。このようなケースで、Google はその問題に優先的に対応できるよう追加の CyberTip レポートを NCMEC に送付します。NCMEC に送付するレポートには、ユーザーや未成年の被害者を特定する情報や、違反コンテンツや参考となるコンテキスト データが含まれることもあります。
Google が提出した CyberTip レポートが実社会に与えた影響の実例を、以下に示します。これらは Google が作成するさまざまなレポートの一例にすぎず、包括的なものではありません。
- Google Cybertip は、教室で撮影された小学生の多数の CSAM を報告しました。報告した CSAM の一部は、これまでに Google が特定していなかったものであり、Google アカウント所有者が制作したものと思われます。NCMEC がこのレポートを法執行機関に送ったことで、報告した CSAM 画像に写っている未成年者 2 人の身元確認と保護に至りました。
- Google Cybertip は、あるアカウント所有者が勧誘、制作した CSAM を報告しました。このアカウント所有者は金銭と引き換えに、数十人の未成年男子の身体的虐待を写した多数の動画制作を要求していました。NCMEC は、このレポートを法執行機関に提出しました。アカウント所有者は CSAM の制作で有罪となり、数十人の子供が特定され、ずっと続いていた虐待から保護されました。
- Google CyberTip は、既知の CSAM コンテンツを 1 件報告し、それによってアカウント所有者の逮捕に至りました。法執行機関によると、このアカウント所有者は他にも多くの CSAM を所持しており、自身の保護下にある未成年者の身体的虐待に直接関与し、また、その未成年者を虐待目的で他人に提供していたことも判明しました。Google、NCMEC、法執行機関の取り組みにより、3 人の子供が性的虐待から助け出されました。
- Google Cybertip は、Google アカウント所有者がオンラインで接触した未成年者を勧誘して制作した CSAM を報告しました。このアカウント所有者は後に逮捕され、法執行機関により、医療従事者として信頼される立場にあったと判断されました。立場を利用して受け持ち患者を虐待し、オンラインで直接接触できる未成年者を勧誘して CSAM を制作していたのです。
Google は生成 AI 分野における CSAM のリスクにどのように対処していますか?
Google は、児童性的虐待を描写した AI 生成の CSAM やコンピュータ生成画像は真剣に取り組むベき脅威だと考えています。CSAM を検出、削除、報告する Google の取り組みには、実在の未成年者が関与する違反コンテンツ、露骨な性的行為に関与している特定可能な未成年者の改変された画像、露骨な性的行為に関与している実在の未成年者と区別がつかないコンピュータ生成画像などが常に含まれています。
Google は、独自の生成 AI モデルとプロダクトを開発する際に、子供の安全を重視しています。Google は、Google の責任ある生成 AI の原則に沿って、Google が一般公開しているすべてのモデルと、その上に構築されたサービスを保護しています。
Google は、生成 AI モデルとプロダクト向けに、子供の安全を守るさまざまな保護を導入しています。これには、Google のモデルの基盤となるトレーニング データにおける CSAM の存在、CSAM を探したり生成したりするメッセージ、違反出力に対する保護が含まれます。また、CSAM が生成される可能性を把握、軽減するために、一般公開に先駆けて子供の安全に関する堅牢なテストをモデルで実施しています。
さらに、Technology Coalition や子供の安全に関わる NGO など、子供の安全に関するエコシステムに携わる他の機関とも協力し、このテクノロジーが進化し続ける中でベスト プラクティスを共有し、理解を深めています。
検索でユーザーが CSAM を探すのを抑止するために、Google はどのような対策をとっていますか?
Google は CSAM 撲滅に向けて、子供の安全エコシステムにどのような貢献をしていますか?
Google の児童安全チームは、ユーザーを保護し、子供が Google サービスで被害に遭わないようにするために、CSAM を正確に検出、報告、削除するテクノロジーを構築しています。児童安全ツールキットを開発した目的は、より広範なエコシステムからも、この高度なテクノロジーへのアクセスを可能にし、児童性的虐待のコンテンツのオンライン拡散防止に寄与するためです。さらに、早急な対応を要するレポートをいち早く判別できるよう、CyberTipline レポートの優先度の判断と審査を効率化するために Google の Hash Matching API を NCMEC に提供しています。
また、より広範なエコシステムから CSAM を削除できるように、児童の性的虐待と搾取のシグナルも共有しています。Google は数百万件の CSAM ハッシュを NCMEC の業界ハッシュ データベースと共有しており、他のプロバイダがこれらのハッシュにアクセスして使用できるようにしています。また、Project Lantern にも署名しました。これは、不適切なコンテンツはさまざまなプラットフォームやサービスを横断するという理解のもと、オンラインでの性的虐待と性的搾取を撲滅するため、テクノロジー企業が安全かつ責任ある方法で関連するシグナルを共有できるようにするプログラムです。
また、Technology Coalition、WeProtect Global Alliance、INHOPE など複数の連合のメンバーとしても活動しています。ここでは企業と NGO が連携して、オンラインでの CSAM のやり取りを阻止し、子供の性的搾取を防止するソリューションを開発しています。Google はこれらの連合への参加を重視しており、NCMEC や Thorn などの NGO と協力して、専門知識を共有し、ベスト プラクティスを模索し、子供の安全に関する重要な問題に関わる最新の脅威について理解を深めています。