YouTube のコミュニティ ガイドラインなどのポリシーに違反している、または法律に違反していると判断されたコンテンツは、YouTube で削除または制限されます。YouTube では、コンテンツがポリシーや法律に違反しているかどうかを判断するために、自動システムと人間による審査を組み合わせて審査しています。
自動システム
YouTube の自動システムは機械学習を使用して、過去の人間による審査のデータを使用し、違反の可能性があるコンテンツを特定します。
ほとんどのシステムには、人間による審査から収集された数百万ものデータポイントが継続的に提供されています。つまり、YouTube の自動化システムでは、違反の検知において高い精度を実現できるのです。また、YouTube が大量のコンテンツを受信した場合も、自動システムによりユーザーへの応答時間を効率的に短縮できます。
コンテンツがポリシーや法律に違反している可能性が高いと YouTube のシステムが判定した場合、自動的に判断を下すことがあります。ただし、ほとんどの場合、YouTube の自動システムは、訓練を受けた審査担当者にコンテンツの報告のみを行い、措置を講じる前に評価を行っています。
人間による審査
違反の可能性があるコンテンツを審査担当者がチェックする際には、訓練を受けた担当者がコンテンツを評価し、関連するポリシーや法律に基づいて意思決定を行います。
コンテンツがポリシーや法律に違反していることが判明した場合、YouTube の審査担当者によって削除されるか、すべての視聴者に適切でない場合は年齢制限が設けられます。教育、ドキュメンタリー、科学、芸術を目的としたコンテンツについては、YouTube での公開が許可されることがあります。
コンテンツに関する決定が下された後でその決定に対して再審査請求が行われた場合、担当者が再審査請求を審査し、個別に評価します。
よくある質問(FAQ)
詳細
コミュニティ ガイドライン
YouTube におけるコミュニティ ガイドラインの違反の特定
YouTube が教育、ドキュメンタリー、科学、芸術(EDSA)のコンテンツを評価する方法
著作権
YouTube パートナー プログラム(YPP)
YouTube パートナー プログラムの申し込みに対する審査方法
プライバシー
YouTube がプライバシー侵害によりコンテンツを削除すべきかどうかを判断する方法