Questo articolo spiega come monitorare e analizzare il rendimento degli esperimenti.
Istruzioni
Visualizzare il rendimento dell'esperimento
- Nell'account Google Ads, fai clic sull'icona Campagne .
- Fai clic sul menu a discesa Campagne nel menu sezione.
- Fai clic su Esperimenti.
- Trova e seleziona l'esperimento di cui vuoi controllare il rendimento.
- Esamina la tabella "Riepilogo degli esperimenti" e il prospetto, poi scegli Applica esperimento o Termina esperimento.
Che cosa mostra il prospetto
- Confronto del rendimento: mostra le date in cui il rendimento dell'esperimento viene messo a confronto con quello della campagna originale. Verranno visualizzati solo i giorni interi che rientrano tra le date di inizio e di fine dell'esperimento e l'intervallo di date selezionato che hai selezionato per la tabella seguente. In assenza di sovrapposizioni, i giorni interi tra le date di inizio e fine dell'esperimento saranno utilizzati per il "Confronto del rendimento".
- Per impostazione predefinita, verranno mostrati i dati sul rendimento relativi a Clic, CTR, Costo, Impressioni e Tutte le conversioni, ma puoi selezionare le metriche sul rendimento da visualizzare facendo clic sulla Freccia giù accanto al relativo nome. Puoi scegliere tra le seguenti metriche:
- Clic
- CTR
- Costo
- CPC medio
- Impr.
- Tutte le conv. (disponibile solo se hai configurato il monitoraggio delle conversioni)
- Tasso conv. (disponibile solo se hai configurato il monitoraggio delle conversioni)
- Conversioni (disponibile solo se hai configurato il monitoraggio delle conversioni)
- Costo/conv. (disponibile solo se hai configurato il monitoraggio delle conversioni)
- Conv. view-through (disponibile solo se hai configurato il monitoraggio delle conversioni)
- La prima riga sotto il nome di ciascuna metrica mostra i relativi dati dell'esperimento. Ad esempio, se sotto "Clic" è visualizzato 4K, significa che gli annunci dell'esperimento hanno ricevuto 4000 clic dall'avvio della pubblicazione.
- La seconda riga mostra la differenza di rendimento stimata tra l'esperimento e la campagna.
- Il primo valore indica la differenza di rendimento registrata dall'esperimento rispetto alla campagna originale per la metrica in questione. Ad esempio, se per la metrica Clic è visualizzato +10%, significa che, secondo le stime, l'esperimento ha ricevuto il 10% di clic in più rispetto alla campagna originale. Se i dati relativi alla campagna originale e/o all'esperimento non sono ancora sufficienti, verrà visualizzato "--".
- Il secondo valore indica che se hai scelto un intervallo di confidenza del 95%, questo è il possibile intervallo per la differenza di rendimento che potrebbe esistere tra l'esperimento e la campagna originale. I valori [+8%, +12%], ad esempio, indicano un possibile aumento compreso tra l'8% e il 12% del rendimento dell'esperimento rispetto alla campagna. Se i dati relativi alla campagna originale e/o all'esperimento non sono ancora sufficienti, verrà visualizzato "--". Puoi scegliere intervalli di confidenza (80% è l'intervallo di confidenza predefinito) ed essere in grado di comprendere meglio le metriche del tuo esperimento con i report sulla confidenza dinamica.
- Se il risultato è statisticamente significativo, viene visualizzato anche un asterisco blu.
Suggerimento
Punta il cursore sulla seconda riga per una spiegazione più dettagliata dei dati che stai esaminando. Hai la possibilità di consultare le seguenti informazioni:
- Statisticamente significativo: in questo caso il valore p è inferiore o pari al 5%. In altre parole, è probabile che i tuoi dati non siano dovuti al caso e che l'esperimento continui a registrare un rendimento simile se convertito in campagna.
- Non statisticamente significativo: in questo caso il valore p è superiore o pari al 5%. Esistono diversi motivi all'origine di dati non statisticamente significativi, tra cui:
- La durata dell'esperimento non è stata sufficiente.
- La campagna non riceve abbastanza traffico.
- La suddivisione del traffico era troppo ridotta e l'esperimento non riceve sufficiente traffico.
- Le modifiche che hai apportato non hanno determinato una differenza nel rendimento statisticamente rilevante.
- In entrambi i casi, ti sarà fornita una spiegazione come la seguente, in merito alla significatività, indicante il livello di probabilità che i dati sul rendimento siano dovuti al caso: "Esiste lo 0,2% (valore p) di probabilità di ottenere questo rendimento (o una differenza nel rendimento più significativa) per ragioni di randomizzazione. Più basso è il valore p, più significativo sarà il risultato".
- Intervallo di confidenza: verrà visualizzata anche una spiegazione dettagliata dell'intervallo di confidenza per la differenza di rendimento simile alla seguente: "Esiste il 95% di probabilità che il tuo esperimento registri una differenza compresa tra +10% e +20% per questa metrica rispetto alla campagna originale".
-
Infine, potrai consultare i dati effettivi della metrica per l'esperimento e la campagna originale.
Cosa puoi fare nel prospetto
- Nel prospetto, puoi modificare la metrica visualizzata utilizzando il menu a discesa accanto.
- Per visualizzare il prospetto per un gruppo di annunci nell'esperimento, fai clic su un gruppo di annunci nella tabella riportata di seguito.
- Per visualizzare dettagli come il nome e il budget di una campagna, passa il mouse sopra la cella corrispondente nella tabella.
Informazioni sul grafico delle serie temporali
Il grafico delle serie temporali mostra il rendimento di massimo due metriche nell'esperimento e la relativa variazione nel corso del tempo sia nella campagna sperimentale sia in quella di controllo. Con questo grafico puoi confrontare gli effetti degli esperimenti su una determinata metrica e scoprire di più sul loro rendimento nel tempo.
Che cosa succede quando metti in pausa o rimuovi le campagne dell'esperimento Performance Max
Puoi mettere in pausa o terminare la campagna di controllo o quella sperimentale in qualsiasi momento. Per riavviare un esperimento in pausa, utilizza il pulsante "Riprendi" per riprendere le campagne o riattivarle manualmente.
- Mettere in pausa le campagne:
- Se metti in pausa la campagna di controllo o quella sperimentale, l'esperimento verrà messo in pausa. Il 100% del traffico verrà indirizzato alla campagna rimanente attiva.
- Se metti in pausa sia la campagna di controllo sia quella sperimentale, l'esperimento verrà messo in pausa.
- Stato dell'esperimento alla data di fine:
- Se l'esperimento raggiunge la data di fine, lo strumento di sincronizzazione di Performance Max imposta lo stato dell'esperimento Performance Max su "Terminato" o "Lancio", indipendentemente dall'applicazione automatica. Tuttavia, se il risultato dell'esperimento è buono e l'applicazione automatica è attivata, la pipeline di applicazione automatica eseguirà la graduazione automatica degli esperimenti "terminati" in un secondo momento.
- Se l'esperimento raggiunge la data di fine e l'applicazione automatica è disattivata, dovrai applicare le modifiche manualmente.
- Rimuovere le campagne:
- Se rimuovi la campagna di controllo o quella sperimentale, il 100% del traffico verrà indirizzato alla campagna rimanente attiva.
- Se rimuovi solo la campagna di controllo, l'esperimento verrà lanciato.
- Se rimuovi solo la campagna sperimentale, l'esperimento terminerà.
- Se rimuovi sia la campagna di controllo sia quella sperimentale, l'esperimento termina.
- Se rimuovi la campagna di controllo o quella sperimentale, il 100% del traffico verrà indirizzato alla campagna rimanente attiva.
Stato della campagna | Traffico dopo l'azione dell'utente | Stato dell'esperimento prima della data di fine | Stato dell'esperimento alla data di fine | |||||
Azione dell'utente | Controllo | Sperimentale | Controllo | Sperimentale | ||||
Messa in pausa di una delle due campagne | In pausa | Attivo | 0% | 100% | In pausa | Se l'applicazione automatica è attivata e il gruppo sperimentale ha risultati positivi, l'esperimento verrà lanciato. In caso contrario, l'esperimento verrà terminato. | ||
Attivo | In pausa | 100% | 0% | In pausa | ||||
Messa in pausa di entrambe le campagne | In pausa | In pausa | 0% | 0% | In pausa | |||
Rimozione di una delle campagne | Rimosso | Attivo | 0% | 100% | Lancio | |||
Attivo | Rimosso | 100% | 0% | Terminato | ||||
Rimozione di entrambe le campagne | Rimosso | Rimosso | 0% | 0% | Terminato |
Applicare o terminare un esperimento
Per applicare un esperimento a una campagna o terminare un esperimento per qualsiasi motivo, fai clic sul pulsante "Applica" o "Fine" nell'angolo in basso a destra della scheda "Riepilogo degli esperimenti" sopra il grafico delle serie temporali.
Esaminare o modificare una campagna paragonabile a una campagna Performance Max esistente
Durante l'esperimento, dovrai modificare manualmente le campagne paragonabili. In caso contrario, Google le sceglierà per te. Una volta terminato l'esperimento, non potrai aggiungere o rimuovere le campagne paragonabili.
- Visualizza i risultati insieme alle campagne paragonabili: per determinare il rendimento del tuo esperimento rispetto a campagne simili, attiva l'opzione "Visualizza risultati con campagne paragonabili" nei report Google Ads.
- Modifica le campagne paragonabili (fino alla fine dell'esperimento): hai il pieno controllo sulle campagne da considerare "paragonabili" durante l'intero esperimento. Basta modificare le selezioni negli esperimenti Performance Max. Se non scegli manualmente le campagne paragonabili, Google le selezionerà automaticamente per te. Una volta terminato l'esperimento, non potrai aggiungere o rimuovere le campagne paragonabili dai risultati.