Notifica

Tieni presente che il team dell'assistenza clienti non fornisce servizi di risoluzione dei problemi nella tua attuale lingua di visualizzazione. Per contattare il personale del team di assistenza, passa innanzitutto all'inglese o ad altre lingue supportate (spagnolo, portoghese o giapponese). 

Testare gli annunci con gli esperimenti

Gli esperimenti di Display & Video 360 sono un framework integrato per i test che ti aiuta ad avviare i test A/B su un gruppo di creatività, segmenti di pubblico, strategie di offerta o tattiche di targeting oppure su uno solo di questi elementi confrontando gli ordini di inserzione o gli elementi pubblicitari.

Puoi suddividere gli utenti in gruppi ed esperimenti che si escludono a vicenda per testare diverse combinazioni di targeting, impostazioni e creatività e individuare quelle ottimali. Utilizza questi risultati per ottimizzare il rendimento delle campagne durante la pubblicazione o per la pianificazione delle campagne future.

Con gli esperimenti puoi:

  • Testare la dimensione di ogni variabile che riguarda una campagna, inclusi il targeting, le impostazioni, le creatività e altro ancora.
  • Eseguire report sulle metriche principali, ad esempio CPC, CTR, CPA, CVR, CPM e così via.

Identificazione basata sugli utenti

Display & Video 360 utilizza identificatori basati sugli utenti per consentire ai tuoi esperimenti di adattarsi al ritiro di terze parti utilizzando identificatori di backup per le deviazioni quando un ID di terze parti non è disponibile. Ciò aumenta le probabilità di avere un identificatore disponibile per ogni impressione dell'annuncio.

Ad esempio:
Se non è disponibile un ID di terze parti, viene utilizzato quello proprietario. In caso contrario, viene utilizzato un identificatore a livello di query.   

Per impostazione predefinita, gli esperimenti utilizzano l'identificazione basata sugli utenti e le deviazioni casuali per massimizzare la partecipazione. Puoi escludere gli utenti non identificati filtrando il traffico senza ID di terze parti per ridurre la contaminazione tra gruppi, ma il numero di utenti che partecipano al tuo esperimento diminuirà. 

Concetti

Valori effettivi

I risultati non elaborati dell'esperimento, che rappresentano il numero effettivo di conversioni ricevute dalla variante.

Gruppo

Un gruppo può contenere:

  • Un singolo elemento pubblicitario o ordine di inserzione oppure
  • Un gruppo di elementi pubblicitari o ordini di inserzione

Ad esempio, una base di riferimento e la sua variante sono gruppi separati dell'esperimento.

Base di riferimento

L'elemento pubblicitario o l'ordine di inserzione che controlla lo standard per i confronti nell'esperimento. Puoi creare varianti e confrontarle con la base di riferimento originale per i test.

Intervallo di confidenza

Indica il grado di certezza che la differenza effettiva tra le varianti rientri nell'intervallo segnalato. Puoi specificare una probabilità del 90% o del 95% che il valore vero rientri nell'intervallo segnalato.

Ad esempio, un intervallo di confidenza del 90% dovrebbe indicare che 90 test ripetuti su 100 hanno una differenza che rientra nell'intervallo segnalato.

Valori normalizzati

Rappresentano il valore principale per clic, conversioni, impressioni o entrate calcolato incrementando la base di riferimento o il valore effettivo della variante al 100% della suddivisione del pubblico.

Ad esempio, se ci sono 170.000 conversioni effettive per un elemento pubblicitario con una suddivisione del pubblico del 34%, il valore normalizzato è 500.000 se lo stesso elemento pubblicitario ha ricevuto il 100% della suddivisione del pubblico.

Valore p

Rappresenta la probabilità calcolata che la differenza possa essersi verificata per caso.

Viene utilizzato per determinare la significatività statistica dei risultati per testare la probabilità che vi sia una differenza di rendimento reale tra la base di riferimento e la variante:

  • Un valore p basso indica prove più solide di una differenza di rendimento che indica risultati significativi.
  • Un valore p più elevato indica che i risultati potrebbero essere stati casuali e quindi non essere significativi.

Variante

Un elemento pubblicitario o un ordine di inserzione sperimentale che testa una singola variabile rispetto all'elemento pubblicitario o all'ordine di inserzione di riferimento.

Configurare un esperimento

  1. Dal tuo inserzionista, fai clic su Esperimenti nel menu a sinistra.
  2. Nella scheda Test A/B, seleziona Crea nuovo.
  3. Scegli una delle opzioni seguenti:
    • Interpiattaforma
    • YouTube e partner
  4. Inserisci i seguenti dettagli:
    1. Nome: inserisci un identificatore per l'esperimento e, facoltativamente, una dichiarazione di ipotesi.

    2. Durata del test: date di inizio e di fine: 

      • Data di inizio: imposta quando inizia l'esperimento. La data deve essere successiva alla data corrente. 

      • Data di fine: facoltativamente, puoi impostare la data in cui termina l'esperimento. Se non specifichi una data di fine, l'esperimento viene eseguito a tempo indeterminato.

        Se possibile, fai coincidere le date di inizio e di fine dell'esperimento con quelle degli ordini di inserzione o degli elementi pubblicitari dell'esperimento.

        Ad esempio:

        • Se interrompi un esperimento prima che gli ordini di inserzione o gli elementi pubblicitari abbiano raggiunto la loro data di fine, l'esperimento non seguirà la suddivisione del pubblico e verrà mostrato al 100% degli utenti.

        Le metriche in un esperimento sono basate esclusivamente sulle impressioni pubblicate dopo la data di inizio dell'esperimento. I report potrebbero conteggiare un numero diverso di conversioni se l'elemento pubblicitario era attivo prima o dopo le date dell'esperimento.

    3. Gruppi di test: scegli se stai confrontando gli ordini di inserzione o gli elementi pubblicitari.

      • A seconda del tipo di esperimento, scegli almeno due ordini di inserzione o elementi pubblicitari da utilizzare nell'esperimento.

        1. Confronta individualmente: seleziona i singoli ordini di inserzione da includere nell'esperimento.
          • Se utilizzi più ordini di inserzione, puoi modificare la suddivisione del pubblico per controllare la distribuzione di tutti i cookie nell'esperimento tra gli ordini di inserzione o gli elementi pubblicitari del tuo esperimento.
          • Per più ordini di inserzione, puoi identificare il gruppo di controllo impostando l'ordine di inserzione come base di riferimento.
        2. Confronta gruppi: seleziona i gruppi di ordini di inserzione da includere in ciascun gruppo dell'esperimento.
          • Puoi modificare la suddivisione del pubblico per controllare la distribuzione di tutti i cookie nell'esperimento tra gli ordini di inserzione o gli elementi pubblicitari del tuo esperimento.
          • Puoi identificare il gruppo di controllo impostando l'ordine di inserzione come la base di riferimento.
    4. Misura:

      1. Obiettivi di ricerca: seleziona l'obiettivo da misurare nell'esperimento.
        • Conversioni
        • Clic
        • Visualizzazioni di video completate
        • Valore totale delle impressioni personalizzate (quando si utilizzano le offerte personalizzate)
      2. Intervallo di confidenza: scegli 95% (il più comune) o 90%.
      3. Partecipazione (solo esperimenti interpiattaforma): per impostazione predefinita, questa opzione è impostata per massimizzare la partecipazione all'esperimento utilizzando identificatori a livello di utente e deviazione casuale.
        • Puoi attivare Escludi utenti non identificati per escludere il traffico senza ID di terze parti per ridurre al minimo la contaminazione tra gruppi.
          Nota: l'esclusione di utenti non identificati potrebbe far sì che il tuo esperimento non sia rappresentativo a causa della diminuzione della partecipazione.
      4. Configurazione dello studio sull'impatto (facoltativo e solo per esperimenti di YouTube e partner):
        • Seleziona la casella di controllo "Impatto del brand".
        • Seleziona da 1 a 3 metriche di impatto da misurare. La barra laterale di sinistra mostra i criteri di idoneità per misurare l'impatto e se i gruppi sperimentali sono idonei. Scopri di più sulla configurazione della misurazione dell'impatto del brand.
        • Inserisci i seguenti dettagli del sondaggio:
          • Il nome del tuo brand o prodotto.
          • Fino a 3 nomi di brand o prodotti concorrenti.
        • Inserisci le seguenti impostazioni del sondaggio:
          • Lingua: la lingua utilizzata per il sondaggio.
          • Tipo di oggetto: il settore o il campo che vuoi includere nel sondaggio.
          • Azione prevista: ciò che ti aspetti che l'utente faccia dopo aver visualizzato il tuo annuncio.
  5. Fai clic su Salva.

Valutare i risultati di un esperimento

  1. Inizia dal tuo inserzionista.
  2. Nel menu a sinistra, vai a Esperimenti.
  3. Nella scheda Test A/B, seleziona il link Nome dello studio per visualizzare i risultati di un esperimento.
    1. Se configuri un sondaggio sull'impatto del brand in un esperimento, fai clic su Visualizza il report sull'impatto del brand accanto al nome del gruppo di test per visualizzare i risultati dello studio.
  4. Nella scheda Risultati dell'esperimento:

    1. In Conversioni (obiettivo principale), puoi visualizzare il riepilogo dei risultati, incluso un grafico per comprendere la differenza tra base di riferimento, varianti e incremento:

      1. Metrica: puoi valutare la differenza tra la base di riferimento e le varianti per verificare la significatività statistica.
      2. Stato: indica se i risultati sono statisticamente significativi. Un risultato statisticamente significativo si verifica quando c'è una grande differenza tra la base di riferimento e qualsiasi variante dell'obiettivo dell'esperimento.
      3. Date del test: le date impostate per l'esperimento.
      4. Tipo: indica se hai scelto di confrontare ordini di inserzione o elementi pubblicitari.
      5. Livello di confidenza: il livello di confidenza impostato per l'esperimento.
      6. Intervallo di confidenza: applica il livello di confidenza impostato per l'esperimento quando viene attivato. 
  5. Puoi aggiornare i risultati nei seguenti modi:

    • Seleziona una base di riferimento: per impostazione predefinita, il grafico confronta la base di riferimento con più varianti. Puoi selezionare una variante da utilizzare come base di riferimento dall'elenco Base di riferimento.

    • Seleziona un modello di attribuzione: quando visualizzi i risultati per gli esperimenti di conversione, puoi scegliere un modello di attribuzione dall'elenco Modelli di attribuzione.

  6. Se vuoi, puoi configurare due studi indipendenti sull'impatto del brand come gruppi sperimentali e visualizzare i risultati dell'impatto del brand. Per visualizzare i risultati dell'impatto del brand in Esperimenti:

    Se nell'ambito di un esperimento vengono creati studi sull'impatto del brand per gli ordini di inserzione, lo studio sull'impatto del brand viene impostato automaticamente sulla misurazione accelerata. Lo studio sull'impatto del brand cercherà di raccogliere risposte ai sondaggi il prima possibile e verrà interrotto quando raggiunge il numero di risposte target.
    • Gli studi sull'impatto del brand e le date di inizio degli esperimenti devono essere uguali.
    • Le domande del sondaggio e la selezione delle metriche devono essere le stesse.
    • Ad esempio, se hai due campagne: puoi eseguire uno studio sull'impatto del brand per ogni campagna e creare un esperimento con due gruppi che rappresentano ciascuna campagna. Se lo studio sull'impatto del brand è stato completato, puoi visualizzare i risultati anche se l'esperimento è ancora in corso.

Esaminare le differenze di un esperimento

Vai alla scheda Diff per esaminare le differenze tra i rami di un esperimento. In questo modo puoi verificare se l'unica differenza è la variabile su cui stai eseguendo il test. Puoi correggere eventuali differenze prima che l'esperimento venga pubblicato, eliminando eventuali bias o il rischio che l'esperimento fornisca risultati non pertinenti. Quando i gruppi delle varianti hanno più di un elemento pubblicitario, Display & Video 360 individua corrispondenze automatiche tra i confronti in base al numero minimo di differenze osservate.

Tieni presente che lo strumento Diff è ideato per essere utilizzato durante il processo di QA, ma potrebbe non essere utile in modo retroattivo. Lo strumento Diff confronta gli elementi pubblicitari e gli ordini di inserzione così come sono attualmente, non come lo erano quando è stato eseguito l'esperimento. Pertanto, lo strumento Diff rifletterà tutte le modifiche apportate dopo l'esperimento (inclusa l'archiviazione degli elementi pubblicitari) anche se queste modifiche non hanno influito sull'esperimento.

Best practice

Tieni presente i seguenti aspetti durante la pianificazione di un esperimento.

Pianificazione e configurazione
  • Testa una sola variabile per esperimento. Mantieni invariati tutti gruppi dell'esperimento (base di riferimento e qualsiasi variante), tranne per la singola variabile che stai testando.

  • Al momento di creare gli ordini di inserzione o gli elementi pubblicitari per gli esperimenti, duplicali invece di crearli partendo da zero. In questo modo è più semplice garantire che gli elementi negli esperimenti siano identici, tranne per la singola dimensione che stai testando come variabile.

  • Utilizza solo ordini di inserzione o elementi pubblicitari nuovi negli esperimenti. Se un ordine di inserzione o un elemento pubblicitario presenta attività precedenti al di fuori dell'esperimento, ciò potrebbe incidere sul conteggio delle conversioni.

  • Elimina le influenze esterne. Assicurati che gli elementi pubblicitari al di fuori dell'esperimento non siano in competizione con i budget degli elementi pubblicitari nell'esperimento. Pertanto, se possibile, utilizza un ordine di inserzione separato per eventuali elementi pubblicitari che verranno utilizzati in un determinato esperimento.

    Inoltre, se possibile, cerca di non riutilizzare la creatività che stai usando in un esperimento al di fuori di questo esperimento.

  • Imposta una quota limite sufficientemente elevata. Se utilizzi ordini di inserzione nell'esperimento, assicurati che la quota limite della campagna equivalga almeno alla somma tra la quota limite più elevata di qualsiasi ordine di inserzione che partecipa all'esperimento e tutte le quote limite degli ordini di inserzione rimanenti non utilizzati nell'esperimento.

    Ad esempio, se hai una campagna che contiene tre ordini di inserzione ma solo due di essi sono parte di un esperimento, devi determinare la quota limite minima della campagna sommando la quota limite più elevata tra i due ordini di inserzione partecipanti e la quota limite dell'ordine di inserzione che non viene utilizzato nell'esperimento. Pertanto, se gli ordini di inserzione nell'esperimento hanno quote limite rispettivamente pari a 10 e 8 e il terzo ordine di inserzione, che non fa parte dell'esperimento, ha una quota limite pari 5, la campagna deve avere una quota limite pari a 15, che risulta sommando 10 (la quota limite più elevata di qualsiasi ordine di inserzione associato all'esperimento) e 5 (la somma di tutte le quote limite degli ordini di inserzione rimanenti nella campagna che sono al di fuori dell'esperimento).

    La stessa best practice si applica anche alla quota limite a livello di ordine di inserzione se il tuo esperimento effettua un confronto degli elementi pubblicitari.

  • Pianifica il budget e il pacing consapevolmente. Il budget impostato per ciascun gruppo dell'esperimento deve essere proporzionale alla suddivisione del pubblico del tuo esperimento. Se assegni il budget in modo diverso e non proporzionalmente, lo rendi parte delle variabili dell'esperimento. Analogamente, il pacing dovrebbe essere uguale o diventerebbe anch'esso un'altra variabile nell'esperimento. Questa best practice andrebbe estesa oltre gli elementi pubblicitari all'interno di un esperimento e anche agli altri elementi pubblicitari non nell'esperimento ma nello stesso ordine di inserzione. La loro capacità di spendere il budget e rispettare il pacing influenzerà il modo in cui gli elementi pubblicitari dell'esperimento acquistano inventario e, conseguentemente, i risultati.

  • Fai attenzione in caso di copertura limitata. Se prevedi una copertura relativamente limitata (ad esempio, stai acquistando inventario con deal o inventario con pubblico con una copertura limitata), gli esperimenti potrebbero produrre intervalli di confidenza ampi, il che potrebbe rendere difficile valutare l'efficacia delle varianti.

  • Finalizza con un certo anticipo. Prima dell'inizio degli esperimenti, deve esserci tempo sufficiente per l'approvazione di tutte le creatività.

Durante l'esecuzione di un esperimento
  • Non mettere in pausa l'esperimento. Se devi mettere in pausa temporaneamente una campagna ma prevedi di continuare l'esperimento, metti in pausa tutti i gruppi dell'esperimento, ma non quest'ultimo. Successivamente, quando riprendi la campagna, assicurati di attivare tutti i rami contemporaneamente.

    Un esperimento terminato non può essere riavviato. Inoltre, tutte le entità assegnate all'esperimento torneranno a essere mostrate al 100% degli utenti.
  • Apporta modifiche in modo uniforme. Per modificare gli ordini di inserzione o gli elementi pubblicitari durante l'esecuzione di un esperimento, assicurati di applicare la stessa modifica a tutti gruppi dell'esperimento. Potresti dover rimuovere un sito che non rispetta le linee guida sull'idoneità del brand.

Considerazioni

  • Gli esperimenti non possono essere eseguiti nei seguenti tipi di inventario:
    • Elementi pubblicitari predefiniti di pubblicità programmatica garantita o ordini di inserzione con elementi pubblicitari predefiniti.
    • Inventario Prenotazione istantanea
  • Gli esperimenti possono essere pubblicati 24 ore dopo la loro configurazione. La data di oggi o di domani non può essere selezionata come data di inizio di un esperimento durante la configurazione.
  • Un elemento pubblicitario o un ordine di inserzione può essere utilizzato solo in un singolo esperimento attivo in un determinato momento.
  • Non puoi modificare le percentuali di suddivisione segmenti di pubblico dopo l'avvio di un esperimento.
  • Al momento, il framework degli esperimenti si basa su più dispositivi, pertanto un utente potrebbe visualizzare una sola variante dell'esperimento sul proprio dispositivo mobile e la base di riferimento sul computer.
  • Il numero di conversioni conteggiate può variare tra gli esperimenti e altre forme di report, incluse le metriche visualizzate nelle tabelle. Questo perché le metriche registrate durante gli esperimenti prendono in considerazione solo le impressioni pubblicate mentre l'esperimento era attivo.
  • Gli studi sull'impatto creati nei test A/B non sono disponibili per una nuova misurazione. Se vuoi misurare nuovamente lo studio sull'impatto del brand, devi interrompere l'esperimento, rimuovere l'ordine di inserzione dallo studio sull'impatto del brand e creare un nuovo studio sull'impatto del brand nella scheda "Studi sull'impatto".

Domande frequenti

Qual è la differenza tra il targeting di segmentazione del pubblico di Campaign Manager 360 e gli esperimenti in Display & Video 360?

Il targeting di segmentazione del pubblico in Campaign Manager 360 si concentra sulla suddivisione del traffico tra diverse creatività. Ad esempio, con il targeting di segmentazione del pubblico, puoi suddividere il traffico di una campagna Campaign Manager 360 in diversi gruppi di utenti e gestire il traffico di una creatività diversa per ogni segmento.

Gli esperimenti in Display & Video 360 ti consentono di suddividere il traffico a livello di ordine di inserzione o di elemento pubblicitario, il che può consentire di testare qualsiasi impostazione o dimensione disponibile per il targeting oltre alle semplici creatività. 

Perché non posso aggiungere un determinato ordine di inserzione o elemento pubblicitario al mio esperimento?

Gli ordini di inserzione o gli elementi pubblicitari non disponibili per l'esperimento sono nascosti o mostrati come elementi non selezionabili quando configuri l'esperimento.

Potresti riuscire a stabilire il motivo per cui non riesci ad aggiungere un ordine di inserzione o un elemento pubblicitario a un esperimento utilizzando l'icona della descrizione comando.

Qual è la differenza tra Google Optimize e gli esperimenti in Display & Video 360?

Gli esperimenti in Display & Video 360 ti consentono di confrontare le tattiche per le campagne pubblicitarie, quali targeting e impostazioni, mentre Google Optimize ti permette di confrontare diversi siti o pagine di destinazione.

Gli esperimenti in Display & Video 360 utilizzano un modello frequentista simile ad altre soluzioni di misurazione del rendimento per gli annunci, mentre Google Optimize utilizza un modello bayesiano, che è più adatto a gestire confronti di campioni di piccole dimensioni.

È stato utile?

Come possiamo migliorare l'articolo?
Ricerca
Cancella ricerca
Chiudi ricerca
Menu principale
7869981897728916050
true
Cerca nel Centro assistenza
true
true
true
true
true
69621
false
false