Domande frequenti sull'applicazione delle Norme della community di YouTube

Che cosa sono le Norme della community di YouTube?

Quando un utente crea un account YouTube, entra a far parte di una community di persone di tutto il mondo. Abbiamo Norme della community dettagliate che spiegano i divieti su YouTube. Ad esempio, non sono consentiti pornografia, incitamento alla violenza, molestie o incitamento all'odio. Il rispetto di tali norme consente di mantenere YouTube un luogo in cui la nostra community può crescere.

Chi può segnalare contenuti per presunte violazioni delle Norme della community di YouTube?

Dopo avere eseguito l'accesso, qualsiasi utente può segnalare un video facendo clic sui tre puntini accanto al video player e selezionando "Segnala". I nostri revisori (persone in carne e ossa) esaminano con attenzione i contenuti segnalati 24 ore su 24, 7 giorni su 7 per determinare se esiste una violazione delle Norme della community di YouTube. Se viene stabilito che un video viola le nostre norme, tale video viene rimosso o limitato. Il creator viene informato via email e ha la possibilità di presentare ricorso contro la decisione (tranne nei casi di rimozione per motivi di privacy).

Quali sono i motivi che gli utenti possono selezionare quando segnalano video per potenziali violazioni delle Norme della community di YouTube?

Per poter segnalare un video o un live streaming, un privato deve scegliere una voce da un elenco di possibili motivi di violazione delle Norme della community, ad esempio presenza di contenuti di natura sessuale, di promozione del terrorismo oppure contenuti offensivi o che incitano all'odio. I nostri revisori valuteranno non soltanto il motivo indicato dall'autore della segnalazione, ma anche se il video segnalato viola eventuali altre Norme della community di YouTube. I video segnalati dagli utenti vengono rimossi o limitati soltanto se dal controllo emerge che i contenuti violano le Norme della community. Ulteriori informazioni sulla segnalazione di contenuti su YouTube.

Che cosa succede a un video che viola le Norme della community di YouTube?

I contenuti che violano le nostre Norme della community vengono rimossi dal sito. Un canale riceverà un avviso in occasione della prima pubblicazione di contenuti che violano le nostre norme. La violazione successiva comporterà un avvertimento. Il creator ha il diritto di presentare ricorso contro la nostra decisione (tranne nei casi di rimozione per motivi di privacy dopo un controllo interno approfondito), a seguito del quale viene effettuato un nuovo controllo e viene presa una decisione definitiva.

Che cosa succede se un canale riceve un avvertimento?

Se un canale riceve un avvertimento relativo alle Norme della community, il creator riceverà un'email e vedrà nelle Impostazioni canale un avviso con informazioni sul motivo della rimozione dei contenuti. Il creator vedrà una notifica relativa alla rimozione anche al successivo accesso al proprio canale di YouTube da un computer desktop o un'app per dispositivi mobili. Per una settimana dalla ricezione di un avvertimento relativo al canale, il creator non potrà pubblicare nuovi contenuti, inclusi video, live streaming, storie, miniature personalizzate e post. Dopo un secondo avvertimento, il creator non potrà pubblicare contenuti per due settimane. Gli avvertimenti rimangono sul canale per 90 giorni. Se il creator riceve tre avvertimenti relativi alle Norme della community in 90 giorni, il suo canale viene chiuso. Il creator potrà presentare ricorso contro i singoli avvertimenti o contro la chiusura del canale. Ulteriori informazioni

In che modo YouTube assegna il motivo della rimozione a un video? 

Quando il nostro team di revisori stabilisce che un video segnalato viola le nostre Norme della community, viene assegnata una motivazione per la rimozione del video che si basa sulle nostre norme e sui criteri di applicazione. Nei casi in cui un video violi più di una nostra norma, il revisore assegna il motivo della rimozione che si basa sulla violazione più grave. Quando sono presenti più violazioni gravi, i nostri revisori assegnano il motivo della rimozione in base alla violazione delle norme più evidente o maggiormente indicativa dell'intento di chi ha caricato il video. Se un video è stato rimosso dalla nostra tecnologia a causa della violazione delle nostre norme contro lo spam, viene assegnata la categoria dello spam. Quando un video viene rimosso dalla nostra tecnologia poiché si tratta di un altro caricamento di contenuti che abbiamo già esaminato e dichiarato non conformi alle norme, viene assegnato il medesimo motivo utilizzato per il video originale, ove disponibile. In altri casi, quando i nostri sistemi automatici segnalano dei contenuti, un revisore valuta i contenuti e assegna un motivo di rimozione. 

Perché alcuni video non hanno alcun motivo di rimozione assegnato?

In precedenza, nell'ambito dell'applicazione delle norme di YouTube, i revisori si limitavano a registrare l'azione che era necessario applicare (ad esempio, l'avvertimento o l'applicazione di limiti di età) durante la revisione di un video e non indicavano il motivo della rimozione. Ora, quando la nostra tecnologia impedisce di ricaricare contenuti che corrispondono esattamente a video già dichiarati non conformi alle norme oppure quando i revisori utilizzano un vecchio strumento per applicare le norme e rimuovere un video, non sarà indicato alcun motivo associato. Di conseguenza, abbiamo classificato questi video con l'indicazione "Altro". Ci stiamo adoperando per ridurre la quantità di contenuti classificati con questa categoria, anche mediante l'aggiunta del motivo della rimozione per i contenuti caricati in passato.  

Come viene determinato il paese/area geografica di caricamento di un video?

Questi dati sono basati sull'indirizzo IP dell'utente che carica il video al momento del caricamento. L'indirizzo IP corrisponde di solito alla posizione geografica dell'utente che carica il video, a meno che non utilizzi una rete privata virtuale (VPN) o un server proxy. Pertanto, questi dati non fanno distinzioni tra il fatto che l'utente venga geolocalizzato in un determinato paese/area geografica oppure che utilizzi una VPN o server proxy con sede in tale paese/area geografica. Inoltre l'indirizzo IP dell'utente che carica il video non corrisponde necessariamente alla posizione in cui è stato visualizzato il video o alla località da cui è stato segnalato un video (se segnalato da un utente o da un segnalatore attendibile). 

Le Norme della community sono state concepite per essere applicate a livello globale. L'indirizzo IP dell'utente che carica il video non viene preso in considerazione al momento di decidere se rimuovere i contenuti per violazioni delle norme. Per informazioni sulle rimozioni di contenuti in base alle leggi locali, consulta il rapporto di Google sulle richieste dei governi per la rimozione di contenuti

Che cosa porta alla rimozione a livello di canale?

Le rimozioni a livello di canale sono la conseguenza di tre avvertimenti legati alla violazione delle nostre Norme della community, di un singolo caso di grave comportamento illecito (ad esempio, comportamenti volti all'adescamento) o della creazione di account dedicati alla violazione delle norme, come il furto d'identità. Quando un canale viene chiuso, tutti i video vengono rimossi. Quando un account viene chiuso, il suo proprietario riceve un'email in cui ne viene specificato il motivo. Se un utente ritiene che il suo account sia stato chiuso per errore, può fare ricorso contro la decisione.

I contenuti segnalati vengono rimossi automaticamente?

YouTube prende provvedimenti sui video segnalati dagli utenti soltanto dopo il controllo da parte dei nostri revisori qualificati al fine di verificare che i contenuti violino effettivamente le nostre norme e di tutelare i contenuti con finalità educative, documentaristiche, scientifiche o artistiche. Usiamo però anche la tecnologia per identificare e rimuovere automaticamente lo spam, nonché i ricaricamenti di contenuti già controllati che violano le nostre norme. Inoltre, in alcuni casi potremmo non rimuovere completamente il video, ma disattivare determinate funzioni, ad esempio i commenti, oppure limitare il pubblico agli utenti che hanno effettuato l'accesso e che hanno più di 18 anni. I creator vengono informati circa i provvedimenti applicati ai loro video e possono presentare ricorso, se ritengono che non siano corretti. 

Quali sono le modalità di limitazione di un video applicate da YouTube invece della rimozione?

  • Limiti di età. Alcuni video non violano le nostre norme, ma potrebbero non essere appropriati per tutte le fasce di pubblico. In questi casi, il nostro team di revisione applicherà un limite di età al video, quando riceve la segnalazione per i contenuti. I video con limiti di età non sono visibili agli utenti che non hanno eseguito l'accesso, che hanno meno di 18 anni o hanno attivato la Modalità con restrizioni. Se prendiamo questa decisione, informiamo l'utente che ha caricato il video inviando un'email in cui viene spiegato che il video è stato sottoposto a limiti di età e che è possibile presentare ricorso contro questa decisione. Ulteriori informazioni.

  • Funzioni limitate. Se i nostri team di revisione stabiliscono che un video rappresenta un caso limite ai sensi delle nostre norme, alcune funzioni potrebbero essere disattivate. I video di questo tipo continuano a essere disponibili su YouTube, ma vengono posizionati dietro a un messaggio di avviso e alcune funzionalità vengono disattivate, ad esempio condivisione, commenti, applicazione di Mi piace e posizionamento nella sezione dei video consigliati. Inoltre, questi video non sono idonei per la monetizzazione. Se prendiamo questa decisione, informiamo l'utente che ha caricato il video inviando un'email in cui viene spiegato che il video avrà soltanto funzioni limitate e che è possibile presentare ricorso contro questa decisione. Ulteriori informazioni.

  • Video bloccati come privati. Se viene riscontrato che un video viola le nostre norme sui metadati fuorvianti, potrebbe essere bloccato come privato. In questo caso il video non sarà visibile al pubblico. Se uno spettatore ha il link al video, quest'ultimo risulterà non disponibile. Se prendiamo questa decisione, informiamo l'utente che ha caricato il video inviando un'email in cui viene spiegato che il video non è più pubblico e che è possibile presentare ricorso contro questa decisione. Ulteriori informazioni.

Al momento le precedenti azioni per limitare i video non sono incluse nel rapporto.

Quali sono le azioni che YouTube e i creator possono intraprendere in relazione ai commenti, a parte rimuoverli?

YouTube mette a disposizione dei creator parecchie opzioni per il controllo dei commenti sui loro video e canali, tra cui:

  • Disattivazione dei commenti. I creator possono decidere se attivare o disattivare i commenti su un video specifico. Ulteriori informazioni

  • Impostazione dei filtri per i commenti. I creator possono impostare filtri per agevolare la loro gestione dei nuovi commenti e messaggi. Inoltre, possono selezionare gli utenti per cui approvare o bloccare automaticamente sempre i commenti e possono aggiungere un elenco di "parole bloccate" che filtrerà i nuovi commenti che le includono e che li raggrupperà in coda nella sezione "In attesa di revisione". Un filtro può anche trattenere commenti che includono link, affinché il creator possa esaminarli. Ulteriori informazioni.

  • Moderazione dei commenti. I creator possono scegliere tra diverse opzioni per moderare i loro video e canali, sia per quanto riguarda singoli video, sia per il loro intero canale. Le opzioni includono la trattenuta e l'esame di tutti i nuovi commenti prima che vengano pubblicati per il video o per il canale oppure la trattenuta di commenti potenzialmente inappropriati da esaminare. Se i creator scelgono di attivare queste opzioni, i commenti verranno mostrati in coda nella loro sezione "In attesa di revisione". Spetta ai creator la decisione finale di approvare, nascondere o segnalare questi commenti. Ulteriori informazioni.

Le azioni descritte sopra per moderare i commenti al momento non sono incluse nel rapporto, che presenta invece solo i dati sui commenti rimossi da YouTube per violazione delle norme o filtrati come "probabile spam". Inoltre, il rapporto non include i commenti rimossi quando YouTube disattiva la sezione dei commenti su un video, quando un video stesso viene rimosso singolarmente o tramite una sospensione a livello di canale o quando viene chiuso l'account dell'autore di un commento.

Chi esamina le segnalazioni per prendere decisioni in merito alla rimozione o alla limitazione dei contenuti?

I video segnalati vengono esaminati da revisori qualificati al fine di verificare che violino effettivamente le nostre norme e di tutelare i contenuti con finalità educative, documentaristiche, scientifiche o artistiche. Questi team sono dislocati in paesi di tutto il mondo, parlano correntemente diverse lingue e valutano con attenzione le segnalazioni 24 ore su 24, 7 giorni su 7. I revisori hanno una formazione completa sulle Norme della community di YouTube e spesso sono specializzati in aree specifiche delle norme, ad esempio tutela dei minori o incitamento all'odio. I revisori rimuovono i contenuti che violano i nostri termini, limitano i contenuti che potrebbero non essere appropriati per tutte le fasce di pubblico e prestano attenzione a lasciare pubblicati i contenuti che non violano le norme.

Che tipo di formazione hanno i revisori?

I revisori di YouTube seguono un programma di formazione completo per acquisire conoscenze esaurienti delle Norme della community di YouTube che consentano loro, ad esempio, di individuare e proteggere i contenuti con finalità educative, documentaristiche, scientifiche o artistiche. La formazione è una combinazione di lezioni in aula e online. Per garantire un'esperienza di apprendimento efficace e il mantenimento delle conoscenze, durante la formazione facciamo spesso dei test. Un costante programma di controllo della qualità valuta le decisioni prese dai revisori e identifica le opportunità di miglioramento. In caso di errori (errori umani o dei nostri sistemi tecnologici), ci adoperiamo per correggerli, analizziamo l'accaduto e adottiamo delle misure per evitare errori dello stesso tipo in futuro.

I revisori commettono mai errori?

Sì. I revisori di YouTube sono altamente qualificati ma, come con qualsiasi sistema, a volte possono commettere errori ed è il motivo per cui consentiamo i ricorsi.

Che cosa succede per quanto riguarda il creator quando viene applicata una rimozione o una limitazione ai sensi delle Norme della community?

I creator vengono informati della rimozione o della limitazione via email e nelle Impostazioni canale; forniamo inoltre un link per presentare ricorso (tranne nei casi di rimozione per motivi di privacy). Il creator vedrà una notifica relativa alla rimozione anche al successivo accesso al proprio canale di YouTube da un computer desktop o un'app per dispositivi mobili. Se un creator decide di presentare ricorso, quest'ultimo viene esaminato da un revisore che conferma o annulla la decisione. Il creator riceve poi un'email con il risultato del ricorso.

Quali altri metodi vengono usati per identificare i contenuti che violano le Norme della community di YouTube?

YouTube usa da molto tempo una combinazione di persone e tecnologie per applicare le sue norme. Oltre alle segnalazioni degli utenti, utilizza tecnologie per la segnalazione di contenuti che potrebbero violare le nostre Norme della community. In genere questi contenuti vengono mandati a revisori qualificati che valutano le potenziali violazioni, a meno che ci sia la certezza quasi assoluta della violazione delle nostre norme. Ad esempio, abbiamo alcuni strumenti che ci permettono di rilevare e rimuovere automaticamente lo spam su larga scala, in base a specifici segnali che possiamo associare con certezza a prassi illecite. Rimuoviamo automaticamente anche i ricaricamenti di contenuti già controllati che violano le nostre norme.

Come funziona la segnalazione automatica?

I sistemi di segnalazione automatica di YouTube si attivano non appena un utente cerca di pubblicare un video o un commento. I contenuti vengono sottoposti a scansione da computer per determinare se violano le Norme della community di YouTube. YouTube usa dei sistemi automatici anche per evitare i ricaricamenti di contenuti di cui è già stata accertata la violazione, anche tramite l'uso di hash (o "fingerprint").

Quali dati vengono inclusi ed esclusi dal rapporto sull'applicazione delle Norme della community di YouTube?

Questo rapporto include dati relativi alle segnalazioni automatiche ed effettuate dagli utenti registrate sui contenuti video per potenziali violazioni delle Norme della community di YouTube. Nel dicembre 2018 abbiamo aggiunto dati sulle chiusure dei canali e sulle rimozioni dei commenti. I dati relativi ai motivi della rimozione di canali e video sono inclusi a partire da settembre 2018. È possibile segnalare anche altri contenuti su YouTube, ad esempio commenti e playlist, ma al momento questi dati non vengono inclusi nel rapporto. In questo rapporto non sono incluse neanche le rimozioni per motivi legali, che inseriamo nel rapporto Richieste di rimozione di contenuti da parte dei governi, e le rimozioni per violazioni della privacy e del copyright.

In questo rapporto sono incluse tutte le segnalazioni?

A partire da ottobre-dicembre 2017 (il periodo considerato nel primo rapporto), abbiamo ricevuto oltre 30 milioni di segnalazioni di video da parte degli utenti. Per evitare l'uso illecito dei nostri sistemi di segnalazione, YouTube dispone di sistemi che identificano, ad esempio, volumi di segnalazioni sospetti o stranamente elevati. Le segnalazioni che non rientrano in questi limiti vengono escluse dai dati presenti nel rapporto. Questi sistemi vengono modificati di tanto in tanto per garantirne l'efficacia contro usi illeciti. Questo è uno dei tanti fattori su cui si basano le modifiche ai volumi di segnalazioni trimestrali. Inoltre, le violazioni della privacy, del copyright e per motivi legali vengono escluse da questo rapporto perché riguardano segnalazioni relative a contenuti diversi dai video.

Che cos'è Segnalatore attendibile?

Segnalatore attendibile è un programma che abbiamo sviluppato per consentire agli utenti che fanno segnalazioni molto efficaci di avvisarci della presenza di contenuti che violano le nostre Norme della community tramite uno strumento per segnalazioni collettive. Possono partecipare al programma privati con elevate percentuali di precisione delle segnalazioni, ONG ed enti statali. Durante le operazioni preliminari, tutti i membri devono seguire una formazione sulle Norme della community di YouTube. Dato che le segnalazioni dei partecipanti hanno un tasso di azione più elevato rispetto a quello dell'utente medio, controlliamo prima tali segnalazioni. I contenuti segnalati tramite il programma Segnalatore attendibile non vengono rimossi automaticamente e non vengono valutati in base a norme diverse da quelle usate per le segnalazioni degli utenti. I video segnalati dai segnalatori attendibili sono soggetti alle stesse norme dei video segnalati da qualsiasi altro utente e vengono esaminati manualmente dai nostri revisori, appositamente formati per prendere decisioni in merito alla violazione o meno delle Norme della community e alla rimozione dei contenuti. Ulteriori informazioni.

Qual è la differenza tra "utente" e "privato" in questo rapporto?

Un utente è un membro della community di YouTube che segnala contenuti. Gli utenti che partecipano al nostro programma Segnalatore attendibile vengono classificati come "privati" in questo rapporto. Il programma Segnalatore attendibile include privati, ONG ed enti statali.

Esistono altri modi per segnalare contenuti inappropriati?

Se la procedura di segnalazione non consente di definire con esattezza il problema di un utente, è possibile usare altri metodi di segnalazione.

  • Strumento di segnalazione di sicurezza e comportamenti illeciti. Potrebbe capitare che un privato debba segnalare più contenuti o voglia far esaminare una segnalazione più dettagliata. È possibile usare lo Strumento di segnalazione di sicurezza e comportamenti illeciti per mettere in evidenza i commenti di un utente oppure dei video e fornire ulteriori informazioni in merito a un problema. Se un utente ritiene di essere oggetto di comportamenti illeciti, questo strumento rappresenta la soluzione migliore per segnalare i contenuti.

  • Reclami per violazione della privacy. Un privato può usare la procedura di reclamo per violazione della privacy per segnalare questo tipo di reclami.

  • Problemi legali (incluso il copyright). Un privato può segnalare un problema legale per proprio conto o per conto di un cliente usando i nostri moduli web legali.

  • Lesioni gravi o decesso. Facciamo del nostro meglio per rispettare la volontà delle famiglie in merito a video che mostrano i loro cari nel momento di un grave infortunio. È possibile presentare richieste di rimozione di contenuti di questo tipo tramite il nostro modulo web.

Che cosa determina un aggiornamento dei dati dei rapporti storici?

Ci impegniamo a fornire trasparenza tramite questo rapporto. In alcuni casi, potremmo scoprire un errore nei dati dopo averli pubblicati. Quando l'errore riguarda concretamente i dati che abbiamo pubblicato in un trimestre precedente, correggiamo i dati storici del rapporto e includiamo una nota relativa alla modifica apportata. 

Come viene calcolata la metrica Tasso di visualizzazioni in violazione (VVR)?

Innanzitutto scegliamo un campione di tutti i video che sono stati visualizzati su YouTube e inviamo i video del campione affinché vengano esaminati. I nostri team stabiliranno se ogni video viola o meno le nostre Norme della community. Dopodiché usiamo i risultati aggregati per stimare la proporzione di visualizzazioni di video su YouTube che violano le nostre Norme della community. La metrica VVR viene segnalata con un intervallo di confidenza del 95%. Questo significa che se la misurazione è stata eseguita molte volte per lo stesso periodo di tempo, ci aspettiamo che la metrica effettiva rientri nell'intervallo nel 95% dei casi. Gli intervalli di confidenza non tengono conto della qualità dei responsabili delle valutazioni, che potrebbe influire sulle nostre misurazioni. Valutiamo regolarmente la qualità dei nostri responsabili delle valutazioni per garantire decisioni relative alle revisioni ad alta precisione.

Precedentemente al primo trimestre 2019, la metrica VVR era basata su un valore aggregato di revisioni relativo esclusivamente agli ultimi 28 giorni di un determinato trimestre (ad esempio, il quarto trimestre del 2018 è rappresentato dalle visualizzazioni aggregate relative al periodo dal 3 dicembre 2018 al 31 dicembre 2018) e dovrebbe essere considerata come una misurazione di fine trimestre. A partire dal secondo trimestre del 2019, aggreghiamo le revisioni dell'intero trimestre. Nelle ultime due settimane del primo trimestre e nelle prime due settimane del secondo trimestre del 2020, la capacità dei responsabili delle valutazioni per le revisioni VVR era limitata a causa dell'emergenza COVID-19 e non è quindi stato possibile esaminare tutti i campioni. Di conseguenza, i dati di una parte di questi periodi di tempo potrebbero non essere rappresentativi.

Quali norme sono incluse nella metrica VVR?

La metrica Tasso di visualizzazioni in violazione indica la proporzione di visualizzazioni di video che avrebbero dovuto essere rimossi da YouTube per violazione delle nostre Norme della community. La metrica non include i video non in violazione che sono stati rimossi a seguito della rimozione del canale e omettiamo del tutto lo spam dalla metrica in quanto le rimozioni di canali di spam costituiscono la maggior parte delle rimozioni per spam. Dalla metrica VVR sono esclusi anche i live streaming, ma sono inclusi i live streaming convertiti in video on demand.
App Google
Menu principale
Cerca nel Centro assistenza
false