온라인 아동 성적 학대 콘텐츠를 근절하기 위한 Google의 노력 FAQ

CSAM이란 무엇인가요?

CSAM이란 아동 성적 학대 콘텐츠를 의미합니다. 성적으로 노골적인 행위에 연루된 미성년자에 관한 사진, 동영상 및 컴퓨터 생성 이미지를 포함하되 이에 국한되지 않는 모든 시각적 묘사가 아동 성적 학대 콘텐츠로 간주됩니다. Google에서는 CSAM이 아동의 과도한 노출과 같지 않다는 점을 인식하고 있으며, Google의 정책 및 시스템은 아동이 욕조나 뒤뜰에서 노는 장면 등 본질적으로 성적이지 않으며 CSAM에 해당하지 않는 순수한 이미지와 아동의 성적 학대 또는 전 세계 법률을 위반하는 선정적인 성기 및 은밀한 부위 노출이 포함된 이미지를 구분하도록 특별히 설계되었습니다. 또한 아동 성적 학대를 만화로 묘사하거나 아동 성적 학대를 웃기게 표현하려는 시도 등 아동을 포함하거나 표현하는 다른 유형의 외설적이거나 착취적인 이미지도 있습니다. 이 이미지는 국제 법률에 위반될 수도 있습니다.

CSAM을 근절하기 위해 Google은 어떤 방법을 사용하고 있나요?

Google은 온라인에서 CSAM을 근절하고 Google 플랫폼이 이러한 콘텐츠를 제작, 저장 또는 배포하는 데 사용되지 않도록 노력하고 있습니다. 이에 따라 상당한 기술, 인력, 시간을 할애하여 아동 성적 학대 콘텐츠 및 행위를 감지, 방지, 삭제 및 신고하고 있습니다. 어린이와 가족을 보호하기 위한 Google의 노력에 대해 자세히 알아보려면 Google 안전 센터, YouTube 커뮤니티 가이드, Google의 아동 보호 사이트Google이 CSAM을 감지, 삭제 및 신고하는 방법에 대한 블로그를 참조하세요.

Google은 플랫폼에서 CSAM을 어떻게 식별하나요?

Google은 온라인에서 아동 성적 학대를 근절하기 위해 많은 자원을 투자하고 있으며, 기술을 사용하여 Google 플랫폼에서 CSAM을 방지, 감지 및 삭제하고 있습니다. 여기에는 자동 감지 및 사람의 검토뿐만 아니라 Google의 사용자 및 NGO와 같은 제3자가 제출한 신고가 포함됩니다. Google은 알려진 CSAM을 감지하기 위해 YouTube의 CSAI Match를 비롯한 해시 매칭을 배포합니다.  이전에 본 적이 없는 CSAM을 발견하기 위해 머신러닝 분류기를 배포하고 있습니다. 이렇게 발견한 CSAM은 전문가 검토팀이 확인합니다. 이전에 본 적이 없는 CSAM을 감지하게 되면, 보호 장치가 필요한 아동 피해자를 식별하고 알려진 CSAM을 감지하는 기능을 강화하기 위해 해시셋에 기여하는 것을 포함하여 아동 안전 생태계에 여러 방면에서 도움이 됩니다. Google은 이러한 분류기를 토대로 Content Safety API를 만들었으며, 이 API를 활용하면 사람의 검토가 필요한 악성 콘텐츠의 우선순위를 지정할 수 있습니다. 


플랫폼에서 악용을 근절하기를 원하는 자격을 갖춘 법인은 CSAI Match 및 Content Safety API를 모두 사용할 수 있습니다. 자세한 내용은 여기에서 확인하세요.

Google은 플랫폼에서 CSAM을 감지하는 경우 어떤 조치를 취하나요?

Google은 플랫폼에서 CSAM을 감지하면 이를 삭제하고 NCMEC에 'CyberTipline'을 신고하며, 위반의 성격과 심각도에 따라 경고하거나, 특정 Google 제품 또는 서비스에 대한 계정의 액세스를 제한하거나, Google 계정을 사용 중지할 수 있습니다. 또한 Google은 추가 CSAM을 파악하거나 관련 맥락을 고려하여 Google 계정에서 확인된 자료와 관련하여 적절하고 균형 잡힌 시정 조치를 취하기 위해 Google 계정에 대한 추가 검토를 적용할 수 있습니다.

 

NCMEC는 미국에서 아동 학대와 관련된 문제를 다루는 정보 센터 및 통합 신고 센터 역할을 합니다. 신고가 접수되고 나면 NCMEC에서는 세계 각국의 법 집행 기관에 이를 전달할 수 있습니다.

CyberTipline 신고란 무엇이며, 여기에는 어떤 유형의 정보가 포함되나요?

Google은 명백한 CSAM을 발견하면 NCMEC에 신고합니다. 이러한 신고를 흔히 CyberTipline 신고 또는 CyberTip이라고 합니다. 또한 Google은 미성년자 학대, CSAM 제작 또는 아동 인신매매와 관련된 사례를 식별하고자 합니다. 이러한 경우 Google은 사안의 우선순위를 정하는 데 도움이 되도록 추가 CyberTip 신고를 NCMEC에 제출합니다. NCMEC에 제출된 신고에는 사용자, 미성년자 피해자에 대한 정보 및 위반 콘텐츠 및/또는 기타 유용한 정황상 데이터가 포함되어 있을 수 있습니다.

Google에서 제출한 CyberTip 신고가 실제로 미치는 영향의 몇 가지 예는 아래와 같습니다. 이러한 일부 예를 살펴보면 Google에서 제출하는 신고가 광범위하다는 것을 알 수 있습니다.  

  • 한 Google CyberTip에서는 초등학교 학생이 나오는 교실 환경에서 촬영된 수많은 CSAM을 신고했습니다. 신고된 CSAM 중 일부는 이전에 Google에서 식별된 적이 없으며 Google 계정 소유자에 의해 제작된 것으로 밝혀졌습니다. NCMEC에서는 신고 내용을 법 집행 기관에 전달했으며, 신고된 CSAM 이미지에 묘사된 2명의 미성년자를 식별하고 보호 조치했습니다.  
  • 한 Google CyberTip에서는 금전 제공의 대가로 수십 명의 미성년자 소년에 대한 직접적인 학대를 묘사하는 수많은 동영상을 제작하도록 요구한 계정 소유자에 의한 CSAM 권유 및 제작 사례를 신고했습니다. NCMEC에서는 신고 내용을 법 집행 기관에 전달했습니다. 계정 소유자는 CSAM 제작으로 유죄 판결을 받았으며 수십 명의 아동이 식별되어 지속적인 학대로부터 보호되었습니다.
  • 한 Google CyberTip에서는 알려진 하나의 CSAM 콘텐츠를 신고했으며, 이는 계정 소유자의 체포로 이어졌습니다. 법 집행 기관에 따르면, 이 계정 소유자는 훨씬 더 많은 CSAM을 소유하고 자신이 돌보는 미성년자를 대상으로 한 직접적인 학대와 그 미성년자를 다른 사람에게 보내 학대당하도록 한 것과도 직접적으로 관련이 있는 것으로 드러났습니다.  Google, NCMEC 및 법 집행 기관이 함께 노력한 결과, 3명의 아동이 성적 학대로부터 구출되었습니다.
  • 한 Google CyberTip에서는 Google 계정 소유자에 의해 제작되고 이 계정 소유자가 온라인으로 접근할 수 있었던 미성년자에게 요구한 CSAM을 신고했습니다. 이 계정 소유자는 나중에 법 집행 기관에 의해 체포되었으며, 의료 전문가로서 신뢰를 받는 지위에 있던 것으로 확인되었습니다. 이 지위를 이용하여 자신이 돌보는 환자를 학대하고 미성년자에게 온라인으로 직접 접근하여 CSAM 제작을 요구했습니다.

Google은 생성형 AI(GenAI) 공간에서 CSAM의 위험에 어떻게 대처하나요?

Google은 아동 성적 학대를 묘사하는 AI 생성 CSAM 또는 컴퓨터 생성 이미지를 매우 심각한 위협으로 간주하고 있습니다. CSAM을 감지, 삭제, 신고하기 위한 Google의 노력에는 실제 미성년자가 등장하는 위반 콘텐츠, 성적으로 노골적인 행위에 연루된 신원 파악이 가능한 미성년자의 수정된 이미지, 이러한 행위에 가담한 실제 미성년자와 구분할 수 없는 컴퓨터 생성 이미지가 항상 포함되어 왔습니다.

Google은 자체 생성형 AI 모델 및 제품을 만들 때 아동 안전을 매우 중요하게 생각합니다. Google은 공개적으로 사용 가능한 모든 Google 모델과 해당 모델을 기반으로 만들어진 서비스를 보호하는 데 Google의 책임감 있는 생성형 AI 원칙을 따릅니다.

Google은 생성형 AI 모델과 제품에 다양한 아동 안전 보호 조치를 적용합니다. 여기에는 모델의 기반이 되는 학습 데이터에 있는 CSAM, CSAM 탐색 및 생성 프롬프트, 위반 출력으로부터 보호하는 보호 조치가 포함될 수 있습니다.  또한 CSAM이 생성될 가능성을 파악하고 이를 줄이기 위해, 공개 출시 전에 모델에 대한 강력한 아동 안전 테스트를 실시합니다.

또한 Google은 Technology Coalition 및 아동 안전 NGO를 비롯한 아동 안전 생태계의 다른 조직과 협력하여 이 기술이 계속 발전함에 따라 권장사항을 공유 및 파악합니다.

Google은 사용자가 Google 검색을 통해 CSAM을 찾으려는 것을 방지하기 위해 무엇을 하고 있나요?

Google은 사용자가 Google 검색을 통해 CSAM을 찾지 못하도록 안전 설계 원칙을 적용하고 있습니다. 아동을 성적으로 피해자로 만들거나, 위험에 처하게 하거나, 그 외 방식으로 착취하는 것으로 보이는 아동 성적 학대 콘텐츠로 이어지는 검색결과를 차단하는 것이 Google의 정책입니다. Google에서는 이렇게 진화하는 위협에 대응하기 위해 알고리즘을 꾸준히 업데이트하고 있습니다. CSAM을 찾는 것으로 보이는 검색에는 추가적인 보호 조치가 적용됩니다. 검색어가 CSAM을 찾기 위한 것이라고 판단되면 선정적인 검색 결과가 필터링됩니다. 또한 성인용 콘텐츠를 찾는 검색어를 사용할 경우 Google 검색에 아동이 포함된 이미지가 표시되지 않습니다. 이는 아동과 성적인 콘텐츠 사이의 연결고리를 끊기 위함입니다. Google은 아동 성적 학대 콘텐츠가 발견되면 검색 색인에서 삭제하는 것 외에도 CSAM 콘텐츠가 많은 사이트에서 모든 콘텐츠의 순위를 내립니다. 많은 국가에서, CSAM과 분명히 연관된 검색어를 입력하는 사용자에게는 아동 성적 학대 이미지는 불법이라는 눈에 잘 띄는 경고와 이 콘텐츠를 신뢰할 수 있는 기관에 신고하는 방법에 대한 정보가 표시됩니다. Google에서는 이러한 경고가 표시되면 사용자가 이 자료를 계속 찾아볼 가능성이 낮아진다는 것을 발견했습니다.

Google은 CSAM 근절을 위해 아동 안전 생태계에서 어떤 노력을 하고 있나요?

Google의 아동 안전팀은 Google 제품에서 사용자를 보호하고 아동이 피해를 입지 않도록 방지하기 위해 CSAM을 정확하게 감지, 신고 및 삭제하는 기술을 개발합니다. Google은 생태계에서도 이 강력한 기술을 이용할 수 있도록 하고 아동 성적 학대 콘텐츠가 온라인에 확산되는 것을 방지하기 위해 아동 안전 도구 모음을 개발했습니다. 또한 NCMEC에서 CyberTipline 신고를 더 효율적으로 검토하고 우선순위를 지정하는 데 도움이 되도록 Google의 Hash Matching API를 제공하여, 즉시 도움이 필요한 아동과 관련된 신고에 조치를 취할 수 있도록 합니다. 

또한 Google은 더 넓은 생태계에서 CSAM을 삭제할 수 있도록 아동 성적 학대 및 착취 신호를 공유합니다. Google은 다른 제공업체에서도 수백만 개의 CSAM 해시에 액세스하고 사용할 수 있도록 이러한 해시를 NCMEC의 업계 해시 데이터베이스와 공유합니다. 또한 Google은 이러한 악용이 다양한 플랫폼과 서비스에 존재할 수 있다는 점을 고려하여, 기술업체가 관련 신호를 공유하여 온라인 성적 학대 및 착취를 안전하고 책임감 있는 방식으로 근절할 수 있도록 지원하는 프로그램인 Project Lantern에 가입했습니다.

또한 Google은 CSAM의 온라인 교환을 중단하고 아동의 성적 착취를 방지하는 해결책을 개발하기 위해 회사와 NGO가 함께하는 Technology Coalition, WeProtect Global Alliance 및 INHOPE와 같은 여러 단체의 회원으로 활발하게 활동하고 있습니다. Google은 이러한 단체에서의 참여를 중요하게 생각하며, NCMEC 및 Thorn과 같은 NGO와의 협력을 통해 전문 지식을 공유하고 권장사항을 살펴보며 주요 아동 안전 문제에 대한 최신 위협에 대해 자세히 알아봅니다.

정부 기관에서는 어떻게 CyberTip과 관련된 법적 요청을 Google에 보낼 수 있나요?

신고가 접수되고 나면 NCMEC에서는 세계 각국의 법 집행 기관에 이를 전달할 수 있습니다. 그러면 법 집행 기관에서는 Google에 추가 정보를 요청하는 법적 절차를 밟을 수 있습니다(법집행기관 요청 제출 시스템(LERS)). 이러한 요청 절차를 원활하게 지원하기 위해 Google은 확인된 정부 기관이 추가 정보에 대한 요청을 안전하게 제출할 수 있는 온라인 시스템을 제공하고 있습니다. 이러한 기관에서는 이 온라인 시스템을 사용하여 제출한 요청의 상태를 확인하고 해당 요청에 대한 Google의 응답을 다운로드할 수 있습니다. LERS에 대해 자세히 알아보거나 LERS 계정을 설정하려는 경우 lers.google.com을 참조하세요. 자세한 내용은 Google이 사용자 정보에 대한 정부 요청을 처리하는 방식에 대한 Google 정책을 참조하세요.

 CSAM 의심 사례를 신고하려면 어떻게 해야 하나요?

CSAM인 링크, 웹사이트, 콘텐츠를 발견하는 경우에는 이를 현지의 경찰, NCMEC 또는 적절한 기관에 신고할 수 있습니다. Google 제품에서 아동에 대한 부적절한 콘텐츠 또는 행위를 목격하거나 경험하는 경우에는 여러 가지 방법으로 이를 Google에 신고할 수 있습니다. 여기에는 Google 제품에서 발생하는 아동 학대 범죄(예: 그루밍, 성 착취, 기타 형태의 아동 성 착취)를 신고하는 것이 포함됩니다. Google 제품에서 다른 사용자가 자녀에게 연락하는 것을 차단하고, 자녀의 Google 계정 설정을 관리하여 자녀가 볼 수 있는 콘텐츠를 필터링할 수 있습니다.

어느 팀이 CSAM 신고를 검토하나요?

사람의 검토는 CSAM을 근절하기 위한 Google의 지속적인 노력 중 매우 중요한 부분입니다. Google 팀원들은 법률, 아동 안전 및 지원, 사회복지, 사이버 조사 등 다양한 분야에서의 경험을 바탕으로 이 업무에 깊이 있는 전문성을 더합니다. 이들은 Google의 정책 범위와 법적으로 아동 성적 학대 콘텐츠로 간주되는 사례에 대해 특별히 교육을 받았습니다. 검토팀은 전문 교육과 복지 지원을 받습니다. 검토자 복지를 지원하는 방식 등 Google이 콘텐츠 검토에 접근하는 방식을 자세히 알아보려면 여기를 참조하세요.

이 보고서에서 다루는 기간은 언제인가요?

여기에 제시된 측정항목은 별도로 지정하지 않은 한, 1월 1일 오전 12시(PST)부터 6월 30일 오후 11시 59분(PDT)까지, 그리고 7월 1일 오전 12시(PDT)부터 12월 31일 오후 11시 59분(PST)까지 수집된 데이터를 나타냅니다.
기본 메뉴
9188065687998751561
true
도움말 센터 검색
true
true
true
false
false