Mercato

Polimi, il mercato dell’analisi dei dati in crescita del 26% nel 2018. Obiettivo: costruire la data-driven company

I Big Data Analytics sono ormai una realtà nelle grandi imprese italiane, che stanno affrontando una duplice sfida: da una parte serve rispondere al business più in fretta, idealmente in tempo reale; dall’altra occorre aumentare la conoscenza introducendo i meccanismi di apprendimento dell’intelligenza artificiale. Sempre più diffuse le nuove figure professionali: data scientist, data engineer, data architect, data analyst

Pubblicato il 26 Nov 2018

data-driven-company

L’analisi dei dati è una priorità delle imprese italiane, che proseguono il percorso di trasformazione verso la data-driven company, ovvero un’organizzazione in grado di prendere decisioni di business a partire a una oggettiva analisi dei dati. L’ultima fotografia dell’Osservatorio Big Data Analytics & Business Intelligence del Politecnico di Milano restituisce l’immagine di un mercato italiano dei Big Data Analytics in salute, che continua il trend positivo degli ultimi tre anni anche nel 2018, raggiungendo un valore complessivo di 1,393 miliardi di euro, in crescita del 26% rispetto all’anno precedente.

Un piatto ricco a cui contribuiscono però quasi solo fra le grandi imprese, che partecipano alla spesa complessiva per l’88%, rivela la ricerca, che ha coinvolto attraverso una survey oltre 600 CIO, Responsabili IT e Responsabili Analytics di piccole, medie e grandi aziende utilizzatrici.

«Le dinamiche di crescita del mercato sono diverse a seconda delle dimensioni aziendali – afferma Alessandro Piva, Responsabile della ricerca -. Mentre le PMI inseguono a fatica, tra le grandi aziende si è diffusa la convinzione che sia giunto il momento dell’azione: le imprese che hanno già avviato progetti ne stanno raccogliendo i benefici e sono spinte a continuare a investire, quelle rimaste indietro percepiscono l’urgenza di attrezzarsi».

Gli strumenti di Big Data Analytics e le applicazioni

Il 45% della spesa in Analytics è dedicata ai software (database e strumenti per acquisire, elaborare, visualizzare e analizzare i dati, applicativi per specifici processi aziendali), il 34% ai servizi (personalizzazione dei software, integrazione con i sistemi informativi aziendali, consulenza di riprogettazione dei processi) e il 21% alle risorse infrastrutturali (capacità di calcolo, server e storage da impiegare nella creazione di servizi di Analytics).

Tra i comparti merceologici, invece, i primi per quota di mercato sono le banche, seguite da manifatturiero e telco – media.

La nuova sfida per le organizzazioni è la velocità, grazie all’Intelligenza Artificiale: occorre oggi adottare soluzioni di Fast & Smart, da una parte in grado di analizzare i dati e rispondere rapidamente, se possibile in tempo reale, alle esigenze del business, dall’altra basate su meccanismi di apprendimento intelligente, grazie all’avvento dirompente di tecniche di Machine Learning e Deep Learning. Circa un terzo delle grandi imprese ha già acquisito le competenze necessarie per utilizzare le soluzioni di frontiera, mentre 1 su 10 effettua l’analisi di dati in tempo reale.

«Crescono le iniziative “fast data”, in cui l’analisi dei dati avviene in tempo reale, integrando diverse fonti informative in streaming e valorizzando in particolare le potenzialità della Internet of Things: tra queste ricordiamo real-time advertising, fraud detection, predictive maintenance, new product development – spiega Carlo Vercellis, Responsabile scientifico dell’Osservatorio Big Data Analytics & Business Intelligence – Ma per coglierne appieno i benefici, è necessario che i Big Data vengano analizzati secondo modalità smart, mediante sofisticati algoritmi di machine learning in grado di identificare pattern e correlazioni presenti nei dati e di trasformare questa conoscenza in azioni concrete che permettano alle imprese di acquisire vantaggio competitivo. Inoltre, crescono le organizzazioni che hanno inserito professionalità qualificate per la gestione degli analytics, come data scientist, data engineer, data architect data analyst, e introdotto modelli organizzativi per sfruttarne al meglio le opportunità, uniformando scelte tecnologiche e dando vita meccanismi di coordinamento strutturati».

Più in dettaglio, la totalità delle grandi organizzazioni adotta Analytics di tipo descrittivo, ma molte stanno sperimentando un’evoluzione verso logiche di predictive, prescriptive e, in alcuni casi, automated Analytics. Il 62% dichiara di avere necessità di competenze specifiche di Machine Learning e Deep Learning: tra queste, poco più di un terzo le ha già introdotte in organico e un ulteriore 30% prevede di farlo nei prossimi due anni. Poco più di un’azienda su dieci invece sfrutta oggi modalità di analisi in Real-Time o in Streaming, in cui vi è un flusso continuo di raccolta dei dati che devono essere analizzati con continuità. Un ulteriore 33% possiede un’infrastruttura che consente analisi in Near Real-Time, con una frequenza d’aggiornamento che scende a meno di un’ora.

Gli ostacoli sulla strada della data-driven company: le competenze innanzitutto

Le difficoltà maggiori riguardano la mancanza di competenze e figure organizzative interne (53%), l’integrazione dei dati (45%) e la stima dei benefici dell’investimento.

Il 77% delle grandi aziende segnala una carenza di risorse interne dedicate alla Data Science, mentre sul fronte organizzativo nel 2018 si registra un importante aumento delle grandi organizzazioni che si sono dotate di un modello di governance per la Data Science maturo, passate dal 17% al 31%, inserendo figure di Analytics in diverse funzioni aziendali, favorendone il coordinamento e la crescita. Oltre metà del campione (55%), però, si trova ancora in una situazione tradizionale, dove non esiste alcuna spinta verso una strategia basata sull’analisi dei dati, mentre il 14% delle grandi aziende italiane si trova all’inizio del percorso di costruzione di una strategia per la data-driven company.

Le figure professionali per la Big Data Analysis e i loro compiti

La figura del Data Scientist è ormai diffusa: il 46% delle grandi imprese ha inserito uno di questi profili e tra chi non lo ha ancora in organico, uno su quattro prevede di introdurlo entro il 2019. Dall’analisi condotta dall’Osservatorio su tutte le offerte di lavoro dello specifico ruolo presenti su LinkedIn, emerge che le competenze più ricercate sono la capacità di utilizzare almeno un linguaggio di programmazione, le competenze di sviluppo e implementazione di algoritmi di machine learning, l’abilità di comunicare e presentare i risultati agli utenti di business.

Il Data Engineer è inserito nel 42% delle grandi imprese, mentre il 13% prevede di assumere almeno uno di questi profili nel 2019. Secondo l’analisi delle offerte su LinkedIn, tra le mansioni svolte da questi professionisti, figurano la gestione della data ingestion e la creazione di data pipeline. Nel 58% dei casi si richiede la capacità di programmazione in Python e Javascript.

Il Data Analyst è presente nel 56% delle grandi aziende italiane e entro il 2019 si prevede che la percentuale raggiungerà il 75%. Sempre dalle informazioni di Linkedin, le sue principali attività sono la produzione di reportistica efficace e l’individuazione di pattern e relazioni tra grandi moli di dati (28%), mentre i principali strumenti utilizzati sono Excel e MySQL.

Tra le altre figure, il Data Science Manager, la figura di coordinamento della struttura di Analytics, è presente nel 23% delle grandi aziende e entro il 2019 un ulteriore 22% ne prevede l’inserimento. Il Data Visualization Expert, che presenta un mix tra competenze di Analytics e dashboard design per trovare la migliore rappresentazione grafica per differenti tipologie di dati e di analisi, invece è presente in circa una grande azienda su dieci, ma una su quattro prevede di introdurlo entro il 2019.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4