Big Data, Bcg: “Grazie all’Agile più velocità e risultati”

Lo studio Boston Consulting group: il tradizionale “metodo a cascata” risulta inefficiente per sfruttare la meglio le potenzialità dell’analisi dei dati. E i team di lavoro dovrebbero includere non soltanto data scientist, ma anche talenti trasversali

Pubblicato il 30 Nov 2018

data ingestion

Tra i motivi che spiegano il fatto che molte aziende siano in ritardo nello sviluppare progetti di big data c’è anche quello che spesso si scelgano strade nuove utilizzando però strumenti datati, che non sono adeguati o non sono in grado di dispiegare il meglio delle proprie potenzialità nel nuovo contesto. E’ quanto emerge dallo studio di Boston Consulting GroupUsing Agile to help mix Big data’s big problems”, alla cui realizzazione, insieme a Fabrice Roghé, Erik Lenhard e Burt Lafountain ha partecipato anche la ricercatrice italiana Giulia Airaghi.

In cima ai problemi che nascono nell’implementazione dei progetti di big data, secondo lo studio, c’è il fatto che  spesso i data engineer e scientist, prevalentemente esperti di mathematic modeling, informatica e statistica, non comprendono gli obiettivi di business e non riescono a catturare il vero valore delle loro analisi, mentre i dirigenti dal canto loro sottovalutano la potenzialità e la capacità delle soluzioni big data. 

“Al cuore del problema – secondo lo studio – sta il modo in cui vengono sviluppate le analisi big data. La maggior parte sono costruite in sequenza, applicando il metodo a cascata del project management, tradizionalmente utilizzato nello sviluppo del software. Nel metodo a cascata, i data scientist acquisiscono, verificano e integrano i dati, sviluppano un modello o un algoritmo per testarlo, eseguono il test, e poi agiscono sui risultati o continuano a perfezionare il modello. Ogni attività dipende dalla realizzazione dell’attività precedente. Si tratta però di un processo inefficiente dove le persone trascorrono più tempo seduti in riunioni di quanto non facciano per le attività reali”.

A questo modello gli esperti di Big contrappongono come più veloce ed efficiente il metodo Agile, in grado di accelerare i tradizionali progetti Big Data migliorandone i risultati. “Il metodo Agile è iterativo, empirico – spiegano i ricercatori – in continuo miglioramento e con team interfunzionali, sviluppa prodotti minimi funzionanti, aggiornamenti rapidi e feedback frequenti per garantire che il prodotto finito soddisfi le aspettative e gli obiettivi”.

Sono essenzialmente cinque i  vantaggi individuata dalla ricerca, a iniziare dal fatto che il metodo agile consenta una sperimentazione rapida, che consente di suddividere i progetti in pezzi gestibili che possono essere costruiti e testi man mano, dando la possibilità di  correggere il percorso intrapreso se l’analisi dei dati non fornisce i risultati attesi. Poi c’è il fatto che l’Agile consente un feedback degli utenti almeno nelle fasi iniziali del progetto: l’obiettivo principale dei progetti di big data infatti non è quello di costruire brillanti modelli matematici, spiegano gli studiosi, ma di risolvere le sfide pratiche di business o avere intuizioni che potrebbero avvantaggiare i clienti. Scegliere di lavorare in Agile inoltre consente di dare priorità ai risultati che aggiungono valore senza aumentare i costi. Tra i vantaggi indicati nella ricerca c’è poi la cross-funzionalità: il 70% degli sforzi di un team interfunzionale, secondo i dati Bcg, va oltre la semplice analisi dei processi aziendali e dei comportamenti operativi: i team sono responsabilizzati e possono prendere decisioni senza che i membri abbiano bisogno dell’approvazione dei singoli responsabili. Questo porta infine alla responsabilizzare le persone, che diventano più coinvolte e maggiormente investite nel risultato. A differenza dei data scientist, i membri Agile del team non sono impiegati contemporaneamente su diversi progetti ma dedicano tutto il loro tempo, e questa particolare attenzione costruisce anche la responsabilità.

Tra i fattori che bisogna tenere presenti per estrarre il massimo valore dai progetti di big data lo studio ne evidenzia alcuni, come il fatto di considerare l’algoritmo come un prodotto finito, e deve essere in grado di fornire risultati comprensibili: per questo i team Agile sono chiamati a sviluppare dashboard, infografiche o altre immagini che comunichino i risultati delle loro scoperte. 

Infine “Le parti interessate devono accettare le imperfezioni. La natura iterativa dello sviluppo Agile – spiegano i ricercatori – significa che i ‘lavori in corso’ potrebbero non avere le migliori prestazioni possibili. Tuttavia, nonostante i loro difetti, possono indicare il progresso verso una soluzione soddisfacente. Accettare tale imperfezione richiede agli stakeholder, di cambiare il modo di pensare. Incoraggiando prove ed errori, gli stakeholder aumentano le probabilità che un progetto passi con successo dalla MVP alla produzione su larga scala”.

Infine per ottenere i migliori risultati sarà che i team non siano imposti esclusivamente da data scientist: “I team Agile dovrebbero includere un mix di talenti sulla base delle necessità – spiega la ricerca – ad esempio data engineer, che possono preparare i dati, data scientist che possono condurre l’analisi, designer che sanno come presentare i dati e altri propfessionisti che conoscono gli obiettivi di business del progetto e le implicazioni per i processi esistenti”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati