La sfida della Data Governance: la maturità delle aziende italiane
Nei primi anni dei “Big Data”, il tema della Data Governance non è stato certo al centro dell’attenzione. La spinta propulsiva delle enormi moli di dati generati e dell’eterogeneità delle fonti dati disponibili ha portato molte aziende a tentare di navigare in questo data deluge (ricordando il termine utilizzato dall’Economist), pur non avendo gli strumenti adeguati a tracciare la rotta.
La Data Governance, nel mentre, è rimasta legata ad alcuni ambiti più tradizionali, percepita come un freno all’innovazione portato dalla funzione IT o come un insieme di limiti legali, in particolare nel settore finanziario. In una nuova maturità di valorizzazione dei Big Data, ciò non è più possibile. Le aziende più mature sono consapevoli della centralità delle attività di monitoraggio della qualità dei dati, della sicurezza delle informazioni e delle operazioni effettuate sui dati. Queste attività sono centrali non perché richieste dal regolatore ma perché si pongono alla base nel processo di trasformazione data-driven. Esse, difatti, permettono di arrivare ad insight veritieri e certificati, facilmente interpretabili. Per questo, permettono di costruire la fiducia nei dati, creando engagement negli utilizzatori finali, ossia i decision maker delle linee di business.
Per raggiungere tale obiettivo, una delle tendenze internazionali è l’integrazione organizzativa tra l’area di Data Modeling o Data Science – motore dell’innovazione – e la funzione di Data Governance, deputata a fornire il giusto carburante alla “macchina” dell’Analytics.
La ricerca dell’Osservatorio Big Data e Business Analytics del Politecnico di Milano
La ricerca dell’Osservatorio Big Data & Business Analytics, parte della School of Management del Politecnico di Milano, presentata nel Convegno tenutosi lo scorso 24 novembre, ha dedicato un approfondimento al tema della Data Strategy, intesa sia come attività e figure dedicate alla data governance sia come modalità di accesso ai risultati delle analisi per utenti non specialisti. Anche quest’anno, Datrix ha partecipato all’evento come Partner dell’edizione di ricerca. Vediamo qui alcuni dei risultati presentati.
Le evidenze emerse, rimanendo nel perimetro delle grandi imprese, non sono incoraggianti. Circa 4 aziende su 10, tra quelle con più di 249 addetti, ritengono inadeguata la qualità dei dati utilizzati nelle analisi e, ad allarmare ulteriormente, la scarsa qualità e integrazione dei dati emerge come il primo ostacolo all’implementazione di progettualità avanzate di Analytics.
Inoltre, la ricerca evidenzia come il tema dell’integrazione dei dati, quando ci si pone l’obiettivo di integrare dati esterni e interni o dati non strutturati e strutturati, è avvertito come particolarmente sfidante: più di una grande azienda su due non ritiene adeguate le tecnologie attualmente in uso.
Infine, pur avendo investito in software di data visualization evoluti, le aziende faticano a farne un uso massivo, coinvolgendo direttamente anche utenti non specialisti nell’interazione con i dati, come ad esempio la creazione di viste ad hoc o lo sviluppo di semplici modelli predittivi. Per quanto riguarda le piccole e medie imprese, la ricerca dell’Osservatorio evidenzia difficoltà ancora maggiori: soltanto il 24% svolge attività di integrazione dei dati interni, afferenti a diversi processi aziendali.
Le tecnologie: dal Cloud all’Augmented Analytics
I limiti sopracitati – spesso sottovalutati nella fretta di arrivare subito all’impatto di business che l’analisi dei dati potrebbe avere – hanno in realtà un impatto diretto sulla capacità delle aziende di creare valore attraverso i dati e quindi di trarre da essi vantaggio competitivo.
I servizi di Cloud Computing sono ormai un must tra le aziende mature in ambito Analytics. Essi permettono di accedere rapidamente a tecnologie allo stato dell’arte, tra i quali ad esempio data warehouse altamente performanti o data lake, ossia strumenti che facilitano l’integrazione di dati eterogenei. Grazie alle tecnologie offerte da Google, ad esempio, anche una piccola o media azienda può valorizzare tutti i dati raccolti sul proprio sito web, ottimizzare i propri investimenti pubblicitari o personalizzare la relazione con i propri clienti. Se ci si affida al giusto partner, inoltre, le progettualità volte a raggiungere questi obiettivi hanno orizzonti temporali inferiori all’anno.
Spostandoci invece su tematiche più avanzate, non si può non citare l’Augmented Analytics. Come hanno ricordato i nostri Claudio Zamboni (Chief Revenue Officer, Datrix) e Matteo Bregonzio (Head of R&D, 3rdPlace), l’Analytics aumentata può rappresentare un vero punto di svolta per tutte quelle aziende che non si sono ancora mosse su queste tematiche. Di cosa si tratta? Di una soluzione end-to-end che automatizza, grazie agli algoritmi di apprendimento automatico, tutte quelle attività maggiormente time-consuming come, ad esempio, il monitoraggio della qualità dei dati, l’integrazione di formati eterogenei, l’analisi esplorativa dei dati per verificarne la pulizia. Augmented Analytics significa inoltre rivoluzionare anche la fase finale di discovery degli insight, con soluzioni innovative che sfruttano l’analisi del linguaggio naturale e si rivolgono direttamente all’utente finale, offrendo suggerimenti di business a partire dai dati immessi nei sistemi.