Perguntas frequentes sobre a aplicação das diretrizes da comunidade do YouTube

Quais são as diretrizes da comunidade do YouTube?

Quando um usuário se inscreve no YouTube, ele entra em uma comunidade de pessoas do mundo todo. Temos diretrizes da comunidade detalhadas que descrevem o que não é permitido no YouTube. Por exemplo, não aceitamos pornografia, incitação à violência, assédio nem discurso de ódio. Seguir essas diretrizes faz com que o YouTube continue sendo um espaço positivo para nossa comunidade.

Quem pode sinalizar conteúdo por possíveis violações das diretrizes da comunidade do YouTube?

Qualquer usuário conectado pode sinalizar um vídeo. Para isso, basta clicar nos três pontos próximos ao player de vídeo e selecionar "Denunciar". Nossos revisores analisam cuidadosamente o conteúdo sinalizado 24 horas por dia e 7 dias por semana para determinar se há uma violação das diretrizes da comunidade do YouTube. Se um vídeo violar nossas políticas, ele será removido ou restringido. O criador será notificado por e-mail e poderá recorrer da decisão, exceto se a remoção tiver sido feita por motivos de privacidade.

Quais são os motivos que os usuários podem selecionar ao sinalizar vídeos por possíveis violações das diretrizes da comunidade do YouTube?

Para sinalizar um vídeo ou transmissão ao vivo, os indivíduos precisam escolher em uma lista os motivos da possível violação das nossas diretrizes da comunidade (por exemplo, conteúdo sexual, promoção de terrorismo ou conteúdo de ódio ou abusivo). Nossos revisores avaliam o vídeo sinalizado em busca de violações de uma das diretrizes da comunidade do YouTube, e não somente do motivo identificado pelo sinalizador. Os vídeos sinalizados pelos usuários só serão removidos ou restringidos se analisarmos o conteúdo e descobrirmos que ele viola nossas diretrizes da comunidade. Saiba mais sobre como os usuários sinalizam conteúdo no YouTube.

O que acontece com um vídeo que viola as diretrizes da comunidade do YouTube?

O conteúdo que viola nossas diretrizes da comunidade é removido do site. Um canal receberá uma notificação na primeira vez que publicar conteúdo violando nossas diretrizes. A próxima violação resultará em um aviso. O criador de conteúdo terá o direito de recorrer da nossa decisão, a menos que o vídeo tenha sido removido por motivos de privacidade após uma revisão interna completa. O recurso levará a uma nova revisão e a uma decisão final.

O que acontece quando um canal recebe um aviso?

Se um canal receber um aviso das diretrizes da comunidade, o criador de conteúdo receberá um e-mail. Além disso, será exibido um alerta na seção "Configurações do canal" com informações sobre o motivo da remoção do material. Os criadores de conteúdo também verão uma notificação sobre a remoção na próxima vez que acessarem o canal do YouTube usando um computador ou app para dispositivos móveis. Quando tiver um único aviso no canal, o criador não poderá postar conteúdo novo por uma semana. Isso inclui vídeos, transmissões ao vivo, histórias, miniaturas personalizadas e postagens. Depois de um segundo aviso, o criador de conteúdo não poderá fazer postagens por duas semanas. Os avisos ficam em vigor no canal por 90 dias. Se houver três avisos das diretrizes da comunidade em 90 dias, o canal será encerrado. O criador pode recorrer de avisos específicos ou do encerramento do canal. Saiba mais

Como o YouTube atribui o motivo da remoção de um vídeo?

Quando nossa equipe treinada de revisores determina que um vídeo sinalizado viola as diretrizes da comunidade, ela atribui um motivo para a remoção com base nas nossas políticas e critérios de aplicação. Caso um vídeo viole mais de uma das nossas diretrizes, o revisor atribuirá o motivo da remoção com base na violação de política mais grave. Se houver várias violações graves, nossos revisores atribuirão o motivo de remoção de acordo com a violação de política mais óbvia ou indicativa da intenção do usuário que fez o envio. Caso um vídeo seja removido pela nossa tecnologia por violar nossas políticas contra spam, a categoria de spam será atribuída a ele. Quando um vídeo é removido pela nossa tecnologia por ser um novo upload de conteúdo que já analisamos e classificamos como em violação das políticas, atribuímos a ele o mesmo motivo de remoção do original, se disponível. Nos demais casos, quando nossos sistemas automatizados sinalizam um conteúdo, um revisor avalia o material e determina o motivo de remoção.

Por que alguns vídeos não têm um motivo de remoção atribuído?

Antes, os revisores do YouTube registravam somente a ação necessária (ou seja, aviso ou restrição de idade) ao analisar um vídeo, e não o motivo da remoção. Agora, quando nossa tecnologia impede o novo upload de vídeos idênticos àqueles com violações, ou quando os revisores usam uma ferramenta de aplicação mais antiga para remover um vídeo, não há um motivo de violação da política associado. Por isso, classificamos esses vídeos como "Outros". Estamos trabalhando para reduzir a quantidade de conteúdo nessa categoria, o que inclui preencher o motivo da remoção por violação da política em materiais mais antigos.  

Como se determina o país/a região de envio de um vídeo?

Esse dado é baseado no endereço IP do usuário que fez o envio no momento do upload. O endereço IP geralmente corresponde à geolocalização do usuário, a menos que ele esteja usando uma rede privada virtual (VPN) ou um servidor proxy. Portanto, esse dado não distingue se o usuário que fez o envio está no local ou se usa uma VPN ou servidor proxy desse país/dessa região. Além disso, o endereço IP desse usuário não corresponde necessariamente ao local onde o vídeo foi visualizado ou sinalizado (no caso de uma denúncia por um usuário ou de Notificações Prioritárias).
 

As diretrizes da comunidade foram criadas para aplicação no mundo todo. O endereço IP do usuário que fez o envio não é considerado nas decisões de remoção de conteúdo por violação da política. Para saber mais sobre a remoção de conteúdo com base na legislação local, consulte o Transparency Report sobre solicitações governamentais de remoção de conteúdo do Google.

O que pode causar a remoção do canal?

As remoções de canal são consequência de violações da política de três avisos das diretrizes da comunidade, um caso único de abuso grave (como comportamento predatório) ou contas dedicadas a violações da política (como falsificação de identidade). Quando um canal é rescindido, todos os vídeos dele são removidos. Quando uma conta é encerrada, o proprietário recebe um e-mail com o motivo do encerramento. Se o usuário acreditar que a conta foi encerrada por engano, ele poderá recorrer da decisão.

O conteúdo sinalizado é removido automaticamente?

O YouTube só toma medidas sobre vídeos sinalizados por usuários após a análise dos nossos revisores treinados. Isso garante que o conteúdo realmente está em violação das nossas políticas e protege os conteúdos com finalidade educacional, documental, científica ou artística. No entanto, usamos a tecnologia para identificar e remover spam automaticamente, além de evitar novos uploads de conteúdo que já tenha sido analisado e classificado como em violação das nossas políticas. Além disso, há alguns casos em que não removemos o vídeo, mas podemos desativar determinados recursos, como os comentários, ou limitar o público a usuários que fizeram login e têm mais de 18 anos. Os criadores de conteúdo serão notificados sobre a restrição dos vídeos e poderão enviar uma contestação caso acreditem que houve um engano.

De que formas o YouTube pode restringir um vídeo em vez de removê-lo?

  • Restrição de idade. Alguns vídeos não violam nossas políticas, mas podem não ser apropriados para todos os públicos. Nesses casos, se recebermos uma notificação, nossa equipe de análise aplicará uma restrição de idade ao conteúdo. Os vídeos com restrição de idade não são visíveis para usuários que não fizeram login, que têm menos de 18 anos ou que ativaram o Modo restrito. Quando tomamos essa decisão, notificamos por e-mail a pessoa que fez o upload, informando que o vídeo foi restringido por idade e que é possível recorrer dessa decisão. Saiba mais

  • Limitação de recursos. Se nossas equipes de análise determinarem que um vídeo está no limite das nossas políticas, ele poderá ter alguns recursos desativados. Esses vídeos permanecerão disponíveis no YouTube, mas apresentarão uma mensagem de aviso no início e alguns recursos serão desativados, incluindo compartilhamento, comentários e posicionamento entre os vídeos sugeridos. Esses vídeos também não são qualificados para monetização. Quando tomamos essa decisão, notificamos por e-mail a pessoa que fez o upload, informando que o vídeo está com recursos limitados e que é possível recorrer dessa decisão. Saiba mais

  • Bloqueio de conteúdo privado. Se for identificado que um vídeo viola nossa política de metadados enganosos, ele poderá ser bloqueado como privado. Quando isso acontece, o conteúdo não é mais visível ao público. Se um usuário acessar o vídeo por meio de um link, ele será exibido como indisponível. Quando tomamos essa decisão, notificamos por e-mail a pessoa que fez o upload, informando que o vídeo não está mais público e que é possível recorrer dessa decisão. Saiba mais

No momento, as ações de restrição de vídeos descritas acima não estão incluídas no relatório.

Que medidas podem ser tomadas pelo YouTube ou pelos criadores de conteúdo em relação a comentários, que não seja a remoção?

O YouTube também dá aos criadores de conteúdo várias opções para controlar os comentários em vídeos e canais, incluindo o seguinte:

  • Desativar comentários. Os criadores de conteúdo podem decidir se querem ativar ou desativar os comentários em vídeos específicos. Saiba mais

  • Configurar filtros para comentários. Os criadores de conteúdo podem configurar filtros para gerenciar novos comentários e mensagens, incluindo a seleção de usuários que terão comentários sempre aprovados ou bloqueados e a inclusão de uma lista de "palavras bloqueadas" que enviará os novos comentários que tiverem essas palavras à fila "Retidos para análise" do criador. Os filtros também podem reter comentários que incluam links para que o criador de conteúdo possa analisá-los. Saiba mais

  • Moderar comentários. Os criadores de conteúdo podem escolher entre várias opções para moderar vídeos individuais ou canais inteiros. As opções incluem: reter e revisar todos os novos comentários antes que eles sejam postados nos vídeos ou no canal ou reter comentários possivelmente inadequados e enviá-los para análise. Se os criadores ativarem esse recurso, os comentários aparecerão na fila "Retidos para análise". Os criadores de conteúdo têm a decisão final sobre a aprovação, o ocultamento ou a denúncia desses comentários. Saiba mais

No momento, o relatório não inclui as ações de moderação de comentários acima. Ele só mostra os dados dos comentários que foram removidos pelo YouTube por violação das políticas ou filtrados como "Prováveis spams". O relatório também não inclui as postagens removidas quando o YouTube desativa a seção de comentários de um vídeo, quando a conta do autor da mensagem é encerrada ou quando um vídeo é removido individualmente ou suspenso no nível do canal.

Quem analisa as sinalizações para decidir sobre a remoção ou restrição de conteúdo?

Revisores treinados avaliam os vídeos sinalizados para verificar se eles violam nossas políticas e para proteger os conteúdos com finalidade educacional, documental, científica ou artística. Essas equipes estão localizadas em vários países, são fluentes em vários idiomas e avaliam cuidadosamente as sinalizações 24 horas por dia, 7 dias por semana. Os revisores têm treinamento extensivo sobre as diretrizes da comunidade do YouTube e geralmente se especializam em áreas específicas da política, como segurança infantil ou discurso de ódio. Eles removem o conteúdo que viola nossos termos, restringem o acesso ao material que pode não ser apropriado para todos os públicos e têm o cuidado de manter os vídeos que não violam nossas diretrizes.

Como os revisores são treinados?

Os revisores do YouTube passam por um programa de treinamento abrangente para garantir um total entendimento das diretrizes da comunidade do YouTube, incluindo como identificar e proteger conteúdo que tenha uma finalidade educacional, documental, científica ou artística. O treinamento tem currículo em sala de aula e on-line. Para garantir uma boa experiência de aprendizado e retenção de conhecimento, usamos testes frequentes como parte do processo de treinamento. Um programa contínuo de garantia de qualidade avalia as decisões tomadas pelos revisores e identifica oportunidades de melhoria. Quando falhas acontecem, seja por erro humano ou dos nossos sistemas tecnológicos, trabalhamos para a correção do problema, analisamos cuidadosamente o que aconteceu e implementamos medidas para evitar erros semelhantes no futuro.

Os revisores cometem erros?

Sim. Os revisores do YouTube são altamente capacitados, mas, como acontece com qualquer sistema, podem cometer erros. É por isso que permitimos as contestações.

O que acontece, do ponto de vista de um criador de conteúdo, quando é aplicada uma remoção ou restrição relacionada à política das diretrizes da comunidade?

Os criadores são notificados sobre a remoção ou restrição por e-mail e na seção "Configurações do canal". Além disso, fornecemos um link para contestação, exceto nos casos em que o vídeo foi removido por motivos de privacidade. Os criadores de conteúdo também verão uma notificação sobre a remoção na próxima vez que acessarem o canal do YouTube usando um computador ou app para dispositivos móveis. Se o criador enviar uma contestação, o material passará por uma nova revisão, e a decisão será confirmada ou revertida. Depois disso, o criador receberá um e-mail de acompanhamento com o resultado.

De que outra forma o conteúdo é identificado como em violação das diretrizes da comunidade do YouTube?

Há bastante tempo, o YouTube utiliza uma combinação de revisão humana e tecnologia para aplicar as políticas. Além da sinalização pelos usuários, usamos a tecnologia para identificar conteúdos que possam violar nossas diretrizes da comunidade. Esse conteúdo é geralmente enviado a revisores treinados para avaliar possíveis violações, a menos que tenhamos um alto grau de certeza de que o conteúdo viola nossas políticas. Por exemplo, temos ferramentas para detectar e remover spam de maneira automática e em grande escala com base em sinais específicos que são claramente associados a práticas abusivas. Além disso, removemos automaticamente novos uploads de conteúdos que já tenham sido analisados e classificados como em violação das nossas políticas.

Como funciona a sinalização automática?

Os sistemas automáticos de sinalização do YouTube entram em funcionamento assim que um usuário tenta publicar um vídeo, postagem ou comentário. O conteúdo é imediatamente verificado por máquinas para avaliar se ele pode violar as diretrizes da comunidade do YouTube. O YouTube também usa sistemas automatizados para impedir novos uploads de conteúdos com violações conhecidas, incluindo por meio do uso de hashes (ou "impressões digitais").

Quais dados são incluídos no relatório de aplicação das diretrizes da comunidade do YouTube?

Esse relatório inclui dados sobre as sinalizações automáticas e de usuários que foram registradas para o conteúdo em vídeo a respeito de possíveis violações das diretrizes da comunidade do YouTube. Em dezembro de 2018, adicionamos dados sobre rescisões de canais e remoções de comentários. Os dados sobre motivos da remoção de canais e vídeos passaram a ser incluídos em setembro de 2018. Também é possível sinalizar outros conteúdos no YouTube, incluindo comentários e playlists, mas essas informações não são incluídas nesse relatório no momento. O relatório também exclui remoções legais, que compartilhamos no relatório Solicitações governamentais de remoção de conteúdo, e remoções por violações de privacidade e direitos autorais.

Todas as sinalizações estão incluídas neste relatório?

Entre outubro e dezembro de 2017 (o período do primeiro relatório), recebemos mais de 30 milhões de sinalizações enviadas por pessoas. Para impedir o abuso dos nossos sistemas de sinalização, o YouTube tem sistemas que identificam fatores como volumes de sinalização suspeitos ou excepcionalmente altos. As sinalizações que estiverem fora desses limites são excluídas dos dados apresentados no relatório. Esses sistemas são ajustados periodicamente para combater o abuso com eficiência. Esse é um dos muitos fatores que determinam as mudanças nos volumes de sinalização a cada trimestre. Além disso, as violações legais, de direitos autorais e de privacidade são excluídas do relatório, assim como as sinalizações de conteúdo que não é de vídeo.

O que é o Programa de Notificações Prioritárias?

O Programa de Notificações Prioritárias foi desenvolvido para que sinalizadores altamente eficazes usem uma ferramenta de denúncia em massa para enviar alertas sobre conteúdo que viola nossas diretrizes da comunidade. ONGs e agências governamentais estão qualificadas para participar desse programa. Como parte do processo de integração, todos os membros recebem treinamento sobre as diretrizes da comunidade do YouTube. Como as sinalizações dos participantes têm uma taxa de acerto mais alta do que as de um usuário normal, priorizamos a revisão dessas sinalizações. O conteúdo marcado pelo Programa de Notificações Prioritárias não é removido automaticamente nem avaliado em relação a políticas diferentes das sinalizações de usuários. Os vídeos sinalizados pelo Programa de Notificações Prioritárias estão sujeitos às mesmas políticas que o material denunciado por qualquer outro usuário. Esse conteúdo é analisado por revisores humanos treinados para decidir se ele viola as diretrizes da comunidade e precisa ser removido. Saiba mais.

Existem outras formas de denunciar conteúdo inadequado?

Se o processo de sinalização não se aplica exatamente ao problema de um usuário, temos vários outros mecanismos de denúncia disponíveis.

  • Ferramenta de segurança e denúncia de abusos. Às vezes, um indivíduo precisa denunciar mais de um conteúdo ou enviar um relatório mais detalhado para análise. A ferramenta de segurança e denúncia de abusos pode ser usada para destacar comentários ou vídeos de usuários e fornecer mais informações sobre um problema. Quando um usuário entende que foi alvo de abuso, essa ferramenta é a melhor opção para denunciar conteúdo.

  • Reivindicações por violação de privacidade. Os indivíduos podem usar o Procedimento para Reclamação relativa à Privacidade ao denunciar violações desse tipo.

  • Questões legais (incluindo direitos autorais). Os indivíduos podem denunciar uma questão legal por conta própria ou em nome de um cliente nos nossos formulários on-line para assuntos jurídicos.

  • Lesão crítica ou morte. Fazemos o nosso melhor para respeitar os desejos de familiares em relação a imagens de entes queridos sendo gravemente feridos. É possível enviar solicitações de remoção desse tipo de conteúdo pelo formulário on-line.

O que causa a atualização de dados de relatórios históricos?

Estamos comprometidos em fornecer transparência por meio deste relatório. Em alguns casos, podemos descobrir erros nos dados depois da publicação. Quando isso tiver um efeito relevante nas informações divulgadas no trimestre anterior, corrigiremos os dados históricos do relatório e incluiremos uma observação sobre a mudança.

Como a taxa de visualização de conteúdo com violações (VVR, na sigla em inglês) é calculada?

Primeiro, fazemos uma amostra de todos os vídeos que foram assistidos no YouTube. Os vídeos dessa amostra são enviados para análise, e nossas equipes determinam se cada vídeo viola ou não nossas diretrizes da comunidade. Usamos os resultados agregados para estimar a proporção de visualizações no YouTube que violam as diretrizes. A métrica da VVR nos relatórios tem um intervalo de confiança de 95%. Isso significa que, se a medição fosse realizada muitas vezes para o mesmo período, a métrica real esperada ficaria dentro do intervalo 95% das vezes. Os intervalos de confiança não consideram a qualidade do avaliador, o que pode afetar as medições. Analisamos a qualidade dos nossos avaliadores regularmente para garantir uma alta precisão nas decisões da análise.

Antes do 1º trimestre de 2019, a VVR era baseada em um agregado de análises somente dos últimos 28 dias de um determinado período e devia ser considerada uma medição do fim do trimestre. Por exemplo, o 4º trimestre de 2018 é representado pelas visualizações agregadas de 3 de dezembro de 2018 a 31 de dezembro de 2018. Desde o 2º trimestre de 2019, as análises são agregadas ao longo de todo o trimestre. Durante as duas últimas semanas do 1º trimestre e as duas primeiras semanas do 2º trimestre de 2020, a capacidade dos nossos avaliadores para análises de VVR foi limitada pela COVID-19, e não foi possível revisar todas as amostras. Por isso, talvez os dados de parte desses períodos não sejam representativos.

Quais políticas estão incluídas na VVR?

A taxa de visualização de conteúdo com violações mede a proporção das visualizações dos vídeos que deveriam ter sido removidos pelo YouTube por violar nossas diretrizes da comunidade. A métrica não inclui vídeos sem violações que foram removidos como resultado da remoção de um canal. Além disso, omitimos totalmente o spam da métrica porque as remoções de canais com spam são a maioria nesse caso. Ela também exclui as transmissões ao vivo, mas inclui transmissões que foram convertidas em vídeos on demand.
Menu principal
11447252767578319345
true
Pesquisar na Central de Ajuda
true
true
true
false
false