CSAM이란 무엇인가요?
CSAM을 근절하기 위해 Google은 어떤 방법을 사용하고 있나요?
Google은 플랫폼에서 CSAM을 어떻게 식별하나요?
Google은 온라인에서 아동 성적 학대를 근절하기 위해 많은 자원을 투자하고 있으며, 기술을 사용하여 Google 플랫폼에서 CSAM을 방지, 감지 및 삭제하고 있습니다. 여기에는 자동 감지 및 사람의 검토뿐만 아니라 Google의 사용자 및 NGO와 같은 제3자가 제출한 신고가 포함됩니다. Google은 알려진 CSAM을 감지하기 위해 YouTube의 CSAI Match를 비롯한 해시 매칭을 배포합니다. 이전에 본 적이 없는 CSAM을 발견하기 위해 머신러닝 분류기를 배포하고 있습니다. 이렇게 발견한 CSAM은 전문가 검토팀이 확인합니다. 이전에 본 적이 없는 CSAM을 감지하게 되면, 보호 장치가 필요한 아동 피해자를 식별하고 알려진 CSAM을 감지하는 기능을 강화하기 위해 해시셋에 기여하는 것을 포함하여 아동 안전 생태계에 여러 방면에서 도움이 됩니다. Google은 이러한 분류기를 토대로 Content Safety API를 만들었으며, 이 API를 활용하면 사람의 검토가 필요한 악성 콘텐츠의 우선순위를 지정할 수 있습니다.
플랫폼에서 악용을 근절하기를 원하는 자격을 갖춘 법인은 CSAI Match 및 Content Safety API를 모두 사용할 수 있습니다. 자세한 내용은 여기에서 확인하세요.
Google은 플랫폼에서 CSAM을 감지하는 경우 어떤 조치를 취하나요?
NCMEC는 미국에서 아동 학대와 관련된 문제를 다루는 정보 센터 및 통합 신고 센터 역할을 합니다. 신고가 접수되고 나면 NCMEC에서는 세계 각국의 법 집행 기관에 이를 전달할 수 있습니다.
CyberTipline 신고란 무엇이며, 여기에는 어떤 유형의 정보가 포함되나요?
Google은 명백한 CSAM을 발견하면 NCMEC에 신고합니다. 이러한 신고를 흔히 CyberTipline 신고 또는 CyberTip이라고 합니다. 또한 Google은 미성년자 학대, CSAM 제작 또는 아동 인신매매와 관련된 사례를 식별하고자 합니다. 이러한 경우 Google은 사안의 우선순위를 정하는 데 도움이 되도록 추가 CyberTip 신고를 NCMEC에 제출합니다. NCMEC에 제출된 신고에는 사용자, 미성년자 피해자에 대한 정보 및 위반 콘텐츠 및/또는 기타 유용한 정황상 데이터가 포함되어 있을 수 있습니다.
Google에서 제출한 CyberTip 신고가 실제로 미치는 영향의 몇 가지 예는 아래와 같습니다. 이러한 일부 예를 살펴보면 Google에서 제출하는 신고가 광범위하다는 것을 알 수 있습니다.
- 한 Google CyberTip에서는 초등학교 학생이 나오는 교실 환경에서 촬영된 수많은 CSAM을 신고했습니다. 신고된 CSAM 중 일부는 이전에 Google에서 식별된 적이 없으며 Google 계정 소유자에 의해 제작된 것으로 밝혀졌습니다. NCMEC에서는 신고 내용을 법 집행 기관에 전달했으며, 신고된 CSAM 이미지에 묘사된 2명의 미성년자를 식별하고 보호 조치했습니다.
- 한 Google CyberTip에서는 금전 제공의 대가로 수십 명의 미성년자 소년에 대한 직접적인 학대를 묘사하는 수많은 동영상을 제작하도록 요구한 계정 소유자에 의한 CSAM 권유 및 제작 사례를 신고했습니다. NCMEC에서는 신고 내용을 법 집행 기관에 전달했습니다. 계정 소유자는 CSAM 제작으로 유죄 판결을 받았으며 수십 명의 아동이 식별되어 지속적인 학대로부터 보호되었습니다.
- 한 Google CyberTip에서는 알려진 하나의 CSAM 콘텐츠를 신고했으며, 이는 계정 소유자의 체포로 이어졌습니다. 법 집행 기관에 따르면, 이 계정 소유자는 훨씬 더 많은 CSAM을 소유하고 자신이 돌보는 미성년자를 대상으로 한 직접적인 학대와 그 미성년자를 다른 사람에게 보내 학대당하도록 한 것과도 직접적으로 관련이 있는 것으로 드러났습니다. Google, NCMEC 및 법 집행 기관이 함께 노력한 결과, 3명의 아동이 성적 학대로부터 구출되었습니다.
- 한 Google CyberTip에서는 Google 계정 소유자에 의해 제작되고 이 계정 소유자가 온라인으로 접근할 수 있었던 미성년자에게 요구한 CSAM을 신고했습니다. 이 계정 소유자는 나중에 법 집행 기관에 의해 체포되었으며, 의료 전문가로서 신뢰를 받는 지위에 있던 것으로 확인되었습니다. 이 지위를 이용하여 자신이 돌보는 환자를 학대하고 미성년자에게 온라인으로 직접 접근하여 CSAM 제작을 요구했습니다.
Google은 생성형 AI(GenAI) 공간에서 CSAM의 위험에 어떻게 대처하나요?
Google은 아동 성적 학대를 묘사하는 AI 생성 CSAM 또는 컴퓨터 생성 이미지를 매우 심각한 위협으로 간주하고 있습니다. CSAM을 감지, 삭제, 신고하기 위한 Google의 노력에는 실제 미성년자가 등장하는 위반 콘텐츠, 성적으로 노골적인 행위에 연루된 신원 파악이 가능한 미성년자의 수정된 이미지, 이러한 행위에 가담한 실제 미성년자와 구분할 수 없는 컴퓨터 생성 이미지가 항상 포함되어 왔습니다.
Google은 자체 생성형 AI 모델 및 제품을 만들 때 아동 안전을 매우 중요하게 생각합니다. Google은 공개적으로 사용 가능한 모든 Google 모델과 해당 모델을 기반으로 만들어진 서비스를 보호하는 데 Google의 책임감 있는 생성형 AI 원칙을 따릅니다.
Google은 생성형 AI 모델과 제품에 다양한 아동 안전 보호 조치를 적용합니다. 여기에는 모델의 기반이 되는 학습 데이터에 있는 CSAM, CSAM 탐색 및 생성 프롬프트, 위반 출력으로부터 보호하는 보호 조치가 포함될 수 있습니다. 또한 CSAM이 생성될 가능성을 파악하고 이를 줄이기 위해, 공개 출시 전에 모델에 대한 강력한 아동 안전 테스트를 실시합니다.
또한 Google은 Technology Coalition 및 아동 안전 NGO를 비롯한 아동 안전 생태계의 다른 조직과 협력하여 이 기술이 계속 발전함에 따라 권장사항을 공유 및 파악합니다.
Google은 사용자가 Google 검색을 통해 CSAM을 찾으려는 것을 방지하기 위해 무엇을 하고 있나요?
Google은 CSAM 근절을 위해 아동 안전 생태계에서 어떤 노력을 하고 있나요?
Google의 아동 안전팀은 Google 제품에서 사용자를 보호하고 아동이 피해를 입지 않도록 방지하기 위해 CSAM을 정확하게 감지, 신고 및 삭제하는 기술을 개발합니다. Google은 생태계에서도 이 강력한 기술을 이용할 수 있도록 하고 아동 성적 학대 콘텐츠가 온라인에 확산되는 것을 방지하기 위해 아동 안전 도구 모음을 개발했습니다. 또한 NCMEC에서 CyberTipline 신고를 더 효율적으로 검토하고 우선순위를 지정하는 데 도움이 되도록 Google의 Hash Matching API를 제공하여, 즉시 도움이 필요한 아동과 관련된 신고에 조치를 취할 수 있도록 합니다.
또한 Google은 더 넓은 생태계에서 CSAM을 삭제할 수 있도록 아동 성적 학대 및 착취 신호를 공유합니다. Google은 다른 제공업체에서도 수백만 개의 CSAM 해시에 액세스하고 사용할 수 있도록 이러한 해시를 NCMEC의 업계 해시 데이터베이스와 공유합니다. 또한 Google은 이러한 악용이 다양한 플랫폼과 서비스에 존재할 수 있다는 점을 고려하여, 기술업체가 관련 신호를 공유하여 온라인 성적 학대 및 착취를 안전하고 책임감 있는 방식으로 근절할 수 있도록 지원하는 프로그램인 Project Lantern에 가입했습니다.
또한 Google은 CSAM의 온라인 교환을 중단하고 아동의 성적 착취를 방지하는 해결책을 개발하기 위해 회사와 NGO가 함께하는 Technology Coalition, WeProtect Global Alliance 및 INHOPE와 같은 여러 단체의 회원으로 활발하게 활동하고 있습니다. Google은 이러한 단체에서의 참여를 중요하게 생각하며, NCMEC 및 Thorn과 같은 NGO와의 협력을 통해 전문 지식을 공유하고 권장사항을 살펴보며 주요 아동 안전 문제에 대한 최신 위협에 대해 자세히 알아봅니다.