di Stefano Cozzini*
Big data, data driven innovation e data analytics sono tra le parole più frequenti nel gergo aziendale in voga negli ultimi anni. Al di là delle attività legate al marketing digitale, sempre più insistente e, in alcuni casi anche piuttosto fastidioso, almeno dal punto di vista di chi scrive, è chiaro che all’interno delle imprese e, più in generale, all’interno di tutti i processi produttivi (ma non solo produttivi), i dati possono diventare un valore importante per lo sviluppo di un’azienda.
Il verbo “possono” non è scelto a caso; i dati, infatti, non sono in maniera automatica alla base di numerosi servizi e prodotti innovativi, ma lo possono diventare, appunto, se ben gestiti. Ciò che manca nella catena del valore dal dato al servizio e che molto spesso viene completamente ignorato è il primo passo, quello fondamentale, ossia la gestione del dato.
Ogni PMI oggi, a differenza del passato, si può facilmente trovare davanti a una valanga di dati. Per non esserne travolta e sfruttarne a pieno le potenzialità, deve affrontare in primis la complessità di una gestione efficace, punto di partenza necessario per trarne vantaggi competitivi e nuove fonti di ricavi.
Se ciò non dovesse avvenire, ovvero se i famosi “big data” non saranno gestiti nella maniera corretta, le mirabolanti promesse di brillantissimi data scientist che si impegneranno a scrivere sofisticati algoritmi di intelligenza artificiale utilizzando tutti i big-data disponibili (o meglio detto dispersi in) azienda saranno destinate a fallire. E peggio ancora la nostra PMI si troverà a dover pagare (profumatamente) uno o più data scientist per organizzare, razionalizzare e sistemare i dati aziendali, un lavoro che dovrebbe essere fatto in precedenza dall’azienda stessa.
Ci tengo a precisare che questo è un lavoro niente affatto semplice e che troppo spesso viene ignorato, non solo nelle aziende ma anche – ahinoi! – nel mondo della ricerca. È proprio a partire dalla consapevolezza di una parziale e spesso errata gestione dei dati provenienti dal mondo della scienza che sono nate una serie di iniziative a livello globale ed europeo per fornire indicazioni complete ed esaustive e formare nuovi profili professionali che permettano di gestire in maniera FAIR i dati della ricerca.
FAIR non è solo un aggettivo, ma è anche un acronimo che ci racconta quali sono le caratteristiche che i dati dovrebbero avere perché siano veramente utili a tutti, al mondo della ricerca che sia esso pubblico o privato. I dati dovrebbero essere trovabili (Findable), accessibili (Accessible), interoperabili (Interoperable) e, infine, riusabili (Reusable). Sono concetti che stanno piano piano percolando nel mondo scientifico, ma sono perfettamente applicabili alla realtà industriale e delle PMI. È, quindi, evidente che nel processo di digitalizzazione delle imprese diventa imprescindibile l’adozione di tecniche di “data management” anche con l’aiuto di figure professionali dedicate, i cosiddetti data curator.
In Area Science Park stiamo lavorando su questo, stiamo investendo in capitale umano per formare figure professionali per “curare” e organizzare i dati, giovani ricercatori che siamo in grado di produrre dati fair-by-design e di utilizzare strumenti di gestione completa del dato da noi prodotto. È un primo passo per produrre conoscenza condivisa a partire dai dati che possano essere compresi e riutilizzati con maggiore facilità da altri ricercatori. È un passo necessario e che è fondamentale venga adottato anche dalle imprese per essere in grado di cogliere la sfida che arriva dai dati – rendendoli FAIR – e poterne beneficiare in concreto al di là delle buzzword da markettari.
*Direttore Istituto per la Ricerca e le Tecnologie Area Science Park