Uno dei tool più utilizzati nel Growth Hacking, soprattutto durante la fase di brainstorming per l’ideazione degli esperimenti, è l’ICE Framework.

È uno strumento utile per assegnare una priorità alle varie idee da metter in campo per favorire la crescita del progetto.

È abbastanza facile da comprendere e da implementare all’interno del processo, ma se non viene utilizzato correttamente, si rischia di allontanare la fase decisionale dalla modalità data-driven verso un giudizio soggettivo dei singoli.

Cos’è l’ICE Framework?

Iniziamo con il definire l’ICE Framework partendo dall’acronimo I.C.E.

I = Impact (impatto dell’esperimento)

C = Confidence (sicurezza, fiducia in, sentirsi a proprio agio con)

E = Ease (facilità di implementazione)

Questi tre parametri devono essere valutati da ogni componente del team di crescita che sta lavorando sul processo di Growth Hacking.

I punteggi vanno da 1 a 10 dove 1 è sempre “peggiore” e 10 “migliore”.

Alla fine delle singole valutazioni, si calcola la media per ogni parametro e poi si moltiplicano tra di loro.

Il risultato finale, dal più alto al più basso, assegna la priorità della messa in opera dei vari esperimenti.

Esempio

Membri del team: 3

Idee da valutare: 2

Voti del membro 1 del team

Idea A: Impact 8, Confidence 5, Ease 6

Idea B: Impact 7, Confidence 5, Ease 6

Voti del membro 2 del team

Idea A: Impact 7, Confidence 5, Ease 7

Idea B: Impact 8, Confidence 5, Ease 7

Voti del membro 3 del team

Idea A: Impact 6, Confidence 5, Ease 7

Idea B: Impact 6, Confidence 5, Ease 5

Media dei voti del team

Idea A: Impact 8+7+6/3=7, Confidence 5+5+5/3=5, Ease 6+7+7/3=6,66 (6,5)

Idea B: Impact 7+8+6/3=7, Confidence 5+5+5/3=5, Ease 6+7+5/3=6

EsperimentoImpactConfidenceEaseRisultato
Idea A756.58x5x6.5=260
Idea B7567x5x6=210

Il primo esperimento da mettere in opera è l’idea A.

Consigli ed esempi pratici di valutazione

Impact

Il primo parametro da valutare è impact: se l’idea che stiamo valutando dovesse funzionare, quanto e con che forza impatterebbe positivamente sull’obiettivo che vogliamo raggiungere?

Esempio pratico

Stage: Acquisition

Obiettivo: acquisire contatti e-mail per la newsletter

Esperimento: comparsa di un pop-up dopo 30 secondi di permanenza su un articolo del blog.

Una volta che ho definito queste informazioni basilari dell’esperimento, posso procedere a valutare il suo impatto rispetto all’obiettivo che mi sono posto.

Ipotizzando di riuscire ad ottenere un risultato positivo, questo con che forza impatterebbe sul mio obiettivo?

Un aumento degli iscritti alla mia newsletter tramite un pop-up potrebbe avere un buon impatto sul mio obiettivo, ma forse meno di un modulo di iscrizione posto a metà dell’articolo che occorre compilare se l’utente vuole procedere con la lettura oppure di un modulo legato alla download di un e-book.

Quindi, in base a queste informazioni, se dovessi assegnare un punteggio da 1 a 10 all’impatto di questo esperimento, assegnerei un 6, mentre darei un 8 al modulo posto a metà articolo e un 7 al download di un e-book.

Questo perché ritengo che la distribuzione di un “premio” a seguito di una richiesta di dati all’utente, abbia maggiori possibilità rispetto a una semplice richiesta.

Continuare a leggere un articolo interessante o ricevere un ebook gratuito sono dei premi che giustificano la richiesta che stiamo facendo all’utente.

Confidence

Il secondo paramento da valutare è la confidence: quanto ci fidiamo di questo esperimento? Quanta sicurezza riponiamo nei suoi confronti? Quanto ci sentiamo a nostro agio con questo esperimento? Siamo sicuri che porterà un miglioramento?

Queste sono le domande a cui dobbiamo rispondere per poter valutare l’esperimento. E le risposte spesso sono all’interno dell’analisi dei dati interni ed esterni che si è effettuata prima del brainstorming.

Esempio pratico

Stage: Acquisition

Obiettivo: incrementare le iscrizioni al nostro portale

Esperimento: inserire l’opzione di registrazione dell’account tramite il profilo social di Facebook

Per poter dare un voto a questo esperimento dobbiamo trovare le giuste risposte alle domande che abbiamo visto sopra.

Dove però? Le potremmo trovare, ad esempio, all’interno dei messaggi tra gli utenti e il customer care oppure all’interno dei feedback ricevuti oppure tra i suggerimenti degli utenti.

E se questi dati non li abbiamo, per evitare di commettere un’azione peggiorativa dell’esperienza dell’utente, potremmo effettuare un rapido sondaggio tra gli utenti chiedendo loro se apprezzerebbero l’introduzione di questa funzionalità.

Solo grazie ai dati possiamo valutare con un punteggio alto di Confidence gli esperimenti. Fino ad allora i nostri giudizi sono condizionati da opinioni soggettive.

Quindi, se ho dei dati a supporto di un potenziale risultato positivo dell’esperimento, il voto che assegnerò sarà dal 6 in su, altrimenti sarò costretto a valutarlo con un punteggio basso (dal 1 al 5).

Ease

Il terzo e ultimo parametro è il più semplice da valutare, in quanto rappresenta la facilità di implementazione.

Quanto è semplice mettere in opera questo esperimento? Quanto è veloce? Quanto è economico? Abbiamo le risorse finanziarie e umane per poterlo eseguire? Abbiamo le competenze necessarie?

Esempio pratico

Prendiamo i due esempi scritti sopra, l’iscrizione alla newsletter tramite un pop-up e l’implementazione di una registrazione account tramite Facebook.

Se dovessi dare un voto alla facilità di implementazione tecnica, alla velocità di sviluppo e messa in opera, e ai costi, è palese che il primo esperimento – il pop-up – è molto più facile, veloce ed economico del secondo.

Infatti, il secondo esperimento richiede dei tempi di implementazione e sviluppo più lunghi, oltre al fatto che si è costretti a lavorare con un servizio di terze parti con tutte le conseguenze che questo comporta.

Quindi darò un voto più alto al primo, ad esempio 8, e più basso al secondo, ad esempio 5.

Conclusioni

L’ICE Framework, come vedi, è un ottimo strumento con cui valutare gli esperimenti e assegnare la giusta priorità.

L’importante è mantenere una mentalità e un approccio data-driven durante la valutazione e, se questi dati non ci sono all’inizio, partire con dei punteggi medi dal 4 al 7 invece di lanciarsi in dei 9 e 10 o dei 1 e 2 solo perché quella particolare idea vi entusiasma o vi fa schifo. 🙂

Fidati di me, più passerà il tempo, più la soggettività caratterizzata dai vari “forse” sparirà per far spazio all’oggettività dei dati e l’intero processo migliorerà in termini di qualità dei risultati.

Ma se proprio non si è sicuri di prendere la giusta decisione, allora conviene rinviare di qualche giorno la fase di valutazione degli esperimenti, al fine di raccogliere i dati mancanti, per poi poterla eseguire con la giusta consapevolezza.

Un ultimo consiglio: la sperimentazione deve passare per il fallimento, purché questo sia d’insegnamento per migliorare l’intero processo!

Quindi non avere paura di sbagliare o di un risultato negativo di un esperimento. Sono solo passaggi obbligatori per apprendere cose nuove sul tuo prodotto, sul tuo mercato e sui tuoi clienti.

Buona crescita!

© Mirko Maiorano

Ti è piaciuto il contenuto?

Condividilo con un amico a cui potrebbe interessare.
Inoltre, se non vuoi perderti i miei prossimi articoli, attività, corsi e workshop, iscriviti alla mia newsletter: clicca qui!

Social Touchpoint

Sui social mi trovi qui:
LinkedIn
Facebook
Twitter

Vuoi parlarmi o incontrarmi? Scopri come farlo visitando la pagina Contattami

  • 21
    Shares